Anda di halaman 1dari 43

Mata Kuliah : Statistika Matematika

Dosen Pengampuh : Aswi, S.Pd., M.Si., Ph.D.

TEOREMA DAN INFERENSI BAYESIAN

Oleh Kelompok 1 Kelas 03/C:


Alya Raodhatul Jannah (200112500003)
Ayu Febriyanti Ari (200112500005)
Indra Yasaro (200112500015)
Ayu Pebriyanti (200112500023)

PROGRAM STUDI STATISTIKA


FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS NEGERI MAKASSAR
MEI, 2022
A. TEOREMA BAYESIAN

Pertama-tama siapa itu Bayes?

Thomas Bayes (1701–1761) adalah seorang ahli matematika dan Presbiterian


Inggris menteri, yang dikenal telah merumuskan kasus tertentu dari teorema yang
menyandangnya nama, Teorema Bayes.

Apa sebenarnya Teorema Bayes?

Ada dua cara dalam memikirkan Teorema Bayes:

• Ini menggambarkan hubungan antara 𝑃𝑟(𝐴|𝐵) dan 𝑃𝑟(𝐵|𝐴).


• Ini mengungkapkan bagaimana tingkat keyakinan subyektif harus berubah
secar rasional untuk diperhitungkan bukti.

Pada Bab ini kita akan membahas bagaimana hubungan antara 𝑃𝑟(𝐴|𝐵) dan
𝑃𝑟(𝐵|𝐴).

Misal, dalam diagram Venn yang disajikan membahas mengenai dua kasus, yang
pertama Dominan Mata (dominan mata kiri sebagai 𝐴, dan dominan mata kanan
~𝐴) dan yang kedua Jari Kaki (jari kaki Morton sebagai 𝐵 dan jari kaki umum
sebagai ~𝐵). Dengan itu kita dapat menyimpulkan sesuatu dengan mudah dari
kedua kejadian tersebut.
Berikut tabel frekuensinya,

𝐴 ~𝐴 Sum
𝐵 5 10 15
~𝐵 65 20 85
Sum 70 30 100

dan tabel probabilitas gabungannya,

𝐴 ~𝐴 Sum
𝐵 0.05 0.10 0.15
~𝐵 0.65 0.20 0.85
Sum 0.70 0.30 1.00

Kita telah belajar bahwa probabilitas bersyarat,

𝑃𝑟(𝐴 ∩ 𝐵)
𝑃𝑟(𝐴|𝐵) =
𝑃𝑟(𝐵)

dapat dinyatakan sebagai,

𝑃𝑟(𝐴 ∩ 𝐵) = 𝑃𝑟(𝐴|𝐵) × 𝑃𝑟(𝐵)

Dengan kata lain, probabilitas bersama dari A dan B adalah produk dari
kondisional probabilitas A bila B diketahui, dan probabilitas marjinal B.

Dan juga persamaan probabilitas bersyarat,

𝑃𝑟(𝐵 ∩ 𝐴)
𝑃𝑟(𝐵|𝐴) =
𝑃𝑟(𝐴)

dapat dinyatakan sebagai,

𝑃𝑟(𝐵 ∩ 𝐴) = 𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)

Dengan kata lain, probabilitas bersama dari B dan A adalah produk dari
kondisional probabilitas B bila A diketahui, dan probabilitas marjinal A.

Untuk 𝑃𝑟(𝐴|𝐵) belum tentu sama dengan 𝑃𝑟(𝐵|𝐴). Namun, Ketika dilakukan
perhitungan probabilitas bersama B dan A, maka akan memiliki hasil yang sama,
tidak peduli pendekatan mana yang digunakan.
Dibuktikan dengan kasus yang tadi,

0.05
𝑃𝑟(𝐴 ∩ 𝐵) = 𝑃𝑟(𝐴|𝐵) × 𝑃𝑟(𝐵) = × 0.15 = 0.05
0.15

0.05
𝑃𝑟(𝐵 ∩ 𝐴) = 𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴) = × 0.7 = 0.05
0.7

Persamaan diatas menghasilkan hasil yang sama.

Apa hubungannya ini dengan Teorema Bayes?

Probabilitas bersama dari A dan B dapat dilihat dengan dua arah,

𝑃𝑟(𝐴 ∩ 𝐵) = 𝑃𝑟(𝐴|𝐵) × 𝑃𝑟(𝐵)

𝑃𝑟(𝐴 ∩ 𝐵) = 𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)

Karena itu,

𝑃𝑟(𝐴|𝐵) × 𝑃𝑟(𝐵) = 𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)

Dan membagi kedua sisi dengan 𝑃𝑟(𝐵), sehingga memberikan kita Teorema
Bayes!

𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)
𝑃𝑟(𝐴|𝐵) =
𝑃𝑟(𝐵)

Seperti yang dilihat, Teorema Bayes dapat diekspresikan dengan cara lain, tetapi
dalam hal ini versi harus jelas bahwa Teorema Bayes adalah cara menghitung
bersyarat kemungkinan. Dari gambar dibawah ini memberikan ringkasan praktis
tadi.
Jadi, kapan kita perlu menggunakan Teorema Bayes?

Teorema Bayes dapat digunakan apabila diberikan satu jenis kondisional


probabilitas, seperti 𝑃𝑟(𝐴|𝐵), tetapi diminta mencari inversnya, 𝑃𝑟(𝐵|𝐴).

Kasus
1% Wanita di usia 40 tahun yang berpartisipasi dalam skrining rutin memiliki
payudara kanker; 80% Wanita dengan kanker payudara akan memiliki hasil
mammogram (tes) yang positif, 9.6% Wanita tanpa kanker payudara juga akan
mendapatkan hasil yang positif. Seorang Wanita di usia ini kelompok memiliki
mammogram positif dalam skrining rutin. Berapa probabilitas dia benar-benar
menderita kanker payudara?

Kami diberikan kemungkinan bahwa seorang Wanita dengan kanker payudara akan
mendapatkan mammogram positif. Tapi kita diminta kebalikan dari ini: berapa
probabilitas seorang Wanita dengan mammogram positif akan terkena kanker
payudara?

Misalkan 𝐴 mewakili Wanita penderita kanker payudara, dan ~𝐴 mewakili Wanita


tanpa kanker payudara. Dan misalkan 𝐵 mewakili hasil tes positif, dan ~𝐵
mewakili hasil tes negatif. Teorema Bayes akan memungkinkan kita untuk
memungkinkan kanker dengan hasil tes yang positif.
𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)
𝑃𝑟(𝐴|𝐵) =
𝑃𝑟(𝐵)

Jadi kita tahu bahwa 𝑃𝑟(𝐴) = 0.01, dan 𝑃𝑟(𝐵|𝐴) = 0.8. untuk mendapatkakan
jawaban digunakan Teorema Bayes, yang kita butuhkan hanyalah menentukan
penyebutnya 𝑃𝑟(𝐵).

Dibuatkan tabel konjoin untuk memvisualisasikan masalah.

𝐴: Cancer ~𝐴: No Cancer Sum


𝐵: Positive ? ? ?
~𝐵: Negative ? ? ?
Sum ? ? ?

Dari soal kita mengetahui 𝑃𝑟(𝐴) = 0.01. ini berarti 1% Wanita memiliki kanker
payudara. Yang berarti 𝑃𝑟(~𝐴) = 0.99, atau 99% Wanita tidak menderita kanker
payudara. Sehingga,

𝐴: Cancer ~𝐴: No Cancer Sum


𝐵: Positive ? ? ?
~𝐵: Negative ? ? ?
Sum 0.01 0.99 1.00

Diketahui juga bahwa probabilitas dari hasil tes positif bila terkena kanker
diketahui,

𝑃𝑟(𝐵|𝐴) = 0.8

Kita dapat menggunakan informasi tersebut untuk menghitung probabilitas


bersama A dan B (kanker dan tes positif). Jika probabilitas marjinal terkena kanker,
𝑃𝑟(𝐴), adalah 0.01, maka probabilitas dari hasil tes positif dan kanker adalah,

𝑃𝑟(𝐵 ∩ 𝐴) = 𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴) = 0.8 × 0.01 = 0.008

Sekarang, kita dapat menghitung probabilitas hasil tes negatif dan kanker dengan
pengurangan sederhana,
𝑃𝑟(~𝐵 ∩ 𝐴) = 0.01 − 0.008 = 0.002

Maka, informasi baru diperoleh dan ditambahkan ke dalam tabel,

𝐴: Cancer ~𝐴: No Cancer Sum


𝐵: Positive 0.008 ? ?
~𝐵: Negative 0.002 ? ?
Sum 0.01 0.99 1.00

Sekarang kita hanya membutuhkan probabilitas bersama dari ~𝐴 ∩ 𝐵 atau


probabilitas bersama dari ~𝐴 ∩ ~𝐵, dan kita dapat menemukan bagian terakhir
yang hilang untuk memecahkan masalah marjinal 𝑃𝑟(𝐵).

Dalam pernyataan masalah, diketahui juga probabilitas hasil tes positif bila tidak
terkena kanker,

𝑃𝑟(𝐵|~𝐴) = 0.096

Hal ini memungkinkan kita untuk menghitung probabilitas bersama bahwa seorang
Wanita memiliki tes positif dan tidak menderita kanker payudara,

𝑃𝑟(~𝐴 ∩ 𝐵) = 𝑃𝑟(𝐵|~𝐴) × 𝑃𝑟(~𝐴) = 0.096 × 0.99 = 0.095

Probabilitas marjinal dari pengujian positif adalah,

𝑃𝑟(𝐵) = 𝑃𝑟(𝐴 ∩ 𝐵) + 𝑃𝑟(~𝐴 ∩ 𝐵) = 0.008 + 0.095 = 0.103

Kita juga dapat menghitung probabilitas bersama bahwa seorang Wanita memiliki
tes negatif dan tidak menderita kanker payudara,

𝑃𝑟(~𝐴 ∩ ~𝐵) = 0.99 − 0.095 = 0.895

Kita mendapatkan seluruh informasi yang ingin dimasukkan ke dalam tabel,

𝐴: Cancer ~𝐴: No Cancer Sum


𝐵: Positive 0.008 0.095 0.103
~𝐵: Negative 0.002 0.895 0.897
Sum 0.01 0.99 1.00
Jika kita misalkan ada 1000 wanita, maka dapat disajikan tabel sebagai berikut,

𝐴: Cancer ~𝐴: No Cancer Sum


𝐵: Positive 8 95 103
~𝐵: Negative 2 895 897
Sum 10 990 1000

Disajikan visualisasi dengan diagram venn sebagai berikut,

Kembali ke pertanyaan utama yaitu berapa probabilitas seorang Wanita dengan


mammogram positif akan terkena kanker payudara sebesar, maka

𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴) 0.8 × 0.01


𝑃𝑟(𝐴|𝐵) = = = 0.078
𝑃𝑟(𝐵) 0.103

Jadi, probabilitas seorang Wanita dengan mammogram positif akan terkena kanker
payudara adalah sebesar 0.078 atau 7.8%.
B. INFERENSI BAYESIAN

Apa itu Inferensi Bayesian?

Inferensi Bayesian adalah proses menghadapi hipotesis alternatif dengan data yang
baru dan menggunakan Teorema Bayes untuk memperbarui keyakinan anda di
setiap hipotesis.

Berdasarkan kamus statistic Oxford (Upton dan Cook, 2014) menjelaskan inferensi
Bayesian sebagai “sebuah pendekatan yang berkaitan dengan konsekuensi dari
memodifikasi keyakinan kita sebelumnya sebagai hasil dari menerima data baru”.

Dan menurut Wikipedia mendefinisikannya seperti ini: “inferensi Bayesian adalah


metode inferensi statistik dimana Teorema Bayes digunakan untuk memperbarui
probabilitas hipotesis sebagai lebih banyak bukti atau informasi tersedia” (artikel
diakses 15 Agustus 2017).

Bagaimana cara kerja Inferensi Bayesian?

Adapun Teorema Bayes yang diperoleh sebelumnya,

𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)
𝑃𝑟(𝐴|𝐵) =
𝑃𝑟(𝐵)

Untuk menggunakan Teorema Bayes untuk inferensi ilmiah, berguna (sebenarnya,


penting) untuk mengganti penyebut marjinal 𝑃𝑟(𝐵) sebagai jumlah dari
probabilitas bersama yang membentuk,

𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)
𝑃𝑟(𝐴|𝐵) =
𝑃𝑟(𝐴 ∩ 𝐵) + 𝑃𝑟(~𝐴 ∩ 𝐵)

Probabilitas marjinal dari 𝐵 adalah jumlah dari probabilitas bersama yang


membuatnya. Untuk lebih jelasnya, disajikan dalam tabel berikut,

𝐴 ~𝐴 Marginal
𝐵 𝑃𝑟(𝐴 ∩ 𝐵) 𝑃𝑟(~𝐴 ∩ 𝐵) 𝑃𝑟(𝐵)
~𝐵 𝑃𝑟(𝐴 ∩ ~𝐵) 𝑃𝑟(~𝐴 ∩ ~𝐵) 𝑃𝑟(~𝐵)
Marginal 𝑃𝑟(𝐴) 𝑃𝑟(~𝐴) Total = 1.00
Kembali ke contoh sebelumnya, yang dimana kami diminta untuk menemukan
probabilitas seorang Wanita dengan mammogram positif akan terkena kanker
payudara. Disini hasil mammogram adalah “data”.

Kita diminta mencari 𝑃𝑟(𝐴|𝐵). Sehingga 𝑃𝑟(𝐵) sebagai penyebut di dalam


Teorema Bayes yang terbentuk, yaitu

𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)
𝑃𝑟(𝐴|𝐵) =
𝑃𝑟(𝐴 ∩ 𝐵) + 𝑃𝑟(~𝐴 ∩ 𝐵)

Kemudian kita kenali bagian dari masalah ini yang berkaitan dengan metode ilmiah,

• Terdapat dua hipotesis mengenai kanker: yang dimana Wanita dengan


menderita kanker (𝐴) dan Wanita yang tidak terkena kanker (~𝐴).
• Terdapat data dalam masalah ini: hasil tesnya positif. Jadi, (𝐵) mewakili
pengamatan data. Namun dilihat bahwa (~𝐵) tidak muncul dalam soal
sebelumnya, dikarenakan kita tidak mengamati tes yang negatif.

Bagaimana kita bisa mengubahnya menjadi masalah Inferensi Bayesian?

Kita dapat mengganti probabilitas bersama dengan probabilitas bersyarat,

𝑃𝑟(𝐴 ∩ 𝐵) = 𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)

𝑃𝑟(~𝐴 ∩ 𝐵) = 𝑃𝑟(𝐵|~𝐴) × 𝑃𝑟(~𝐴)

Kemudian, Teorema Bayes terlihat seperti ini,

𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)
𝑃𝑟(𝐴|𝐵) =
[𝑃𝑟(𝐵|𝐴) × 𝑃𝑟(𝐴)] + [𝑃𝑟(𝐵|~𝐴) × 𝑃𝑟(~𝐴)]

Penyebutnya masih merupakan jumlah dari dua probabilitas bersama yang


terbentuk dari probabilitas marjinal 𝐵.
C. MASALAH PENULIS: BAYESIAN INFERENSI DENGAN DUA
HIPOTESIS

Masalah:

Terdapat makalah yang tidak diketahui penulisnya, yaitu makalah No. 54. Mosteller
dan Wallace akan mencoba mengestimasikan penulis dari makalah tersebut dengan
menggunakan Teorema Bayes.

Persamaan Teorema Bayes:

Pr(B|A) ∗ Pr (A)
Pr(𝐴|𝐵) =
Pr(B|A) ∗ Pr(A) + Pr(B|~A) ∗ Pr (~A)

Untuk menyelesaikan inferensi Bayesian dengan dua hipotesis akan digunakan jalur
ilmiah:

1. Identifikasi hipotesis anda


2. Nyatakan keyakinan anda bahwa setiap hipotesis benar dalam kaitannya
dengan peluang sebelumnya.
3. Kumpulkan data
4. Tentukan likelihood data yang diamati pada setiap hipotesis
5. Gunakan teorema Bayes untuk menghitung peluang posterior untuk setiap
hipotesis

Berikut ini penjelasan pada setiap langkahnya:

Langkah 1

Pada langkah 1, kita mengidentifikasi hipotesis kita. Makalah No. 54 panjangnya


2008 kata, dan tujuan kita adalah menentukan penulis yang paling mungkin. Untuk
makalah ini, kita memiliki dua hipotesis untuk penulis: Hamilton atau Madison.

- Hamilton = hipotesis Hamilton


- Madison = hipotesis Madison

Perhatikan bahwa hipotesisnya lengkap dan saling eksklusif. Karena hanya ada dua
hipotesis, maka:
𝑃𝑟(𝐻𝑎𝑚𝑖𝑙𝑡𝑜𝑛) = 𝑃𝑟(~𝑀𝑎𝑑𝑖𝑠𝑜𝑛)

Dan

𝑃𝑟(𝑀𝑎𝑑𝑖𝑠𝑜𝑛) = 𝑃𝑟(~𝐻𝑎𝑚𝑖𝑙𝑡𝑜𝑛)

Pada Teorema Bayes di atas, 𝐴 merupakan hipotesis bahwa penulisnya adalah


Alexander Hamilton, dan ~𝐴 merupakan hipotesis bahwa penulisnya adalah James
Madison. Dan 𝐵 dalam Teorema Bayes di atas mewakili data yang diamati.

Peluang posterior bahwa penulisnya adalah Hamilton adalah:

Pr(𝐻𝑎𝑚𝑖𝑙𝑡𝑜𝑛|𝑑𝑎𝑡𝑎)

Pr(data|Hamilton) ∗ Pr (Hamilton)
=
Pr(data|Hamilton) ∗ Pr (Hamilton) + Pr(data|Madison) ∗ Pr (Madison)

Langkah 2

Pada langkah ini kita mengungkapkan keyakinan bahwa setiap hipotesis benar
dalam hal peluang prior. Hal ddilakukan ini karena makalahnya tidak
ditandatangani dan kita memiliki ketidakpastian tentang hipotesis mana yang benar.
Jika penulis menandatangani makalah secara otentik, kemungkinan kepenulisan
mereka adalah 1,0, dan kami tidak memiliki masalah untuk selesaikan!

- Pr(Hamilton) = peluang awal bahwa penulisnya adalah Hamilton


- Pr(Madison) = peluang awal bahwa penulisnya adalah Madison

Ingat bahwa jumlah peluang prior adalah 1,0. Selanjutnya terdapat beberapa
pilihan:

- Pr(Hamilton) = 0.1 dan Pr(Madison) = 0.9


- Pr(Hamilton) = 0.5 dan Pr(Madison) = 0.5
- Pr(Hamilton) = 0.7 dan Pr(Madison) = 0.3
- Pr(Hamilton) = 0.75 dan Pr(Madison) = 0.25

Terdapat banyak kombinasi darii peluang prior untuk dipilih. Diketahui bahwa
Hamilton menulis 43 makalah dan Madison menulis 14 makalah, masuk akal jika
menetapkan peluang prior Pr(Hamilton) adalah 0.75 (opsi terakhir di atas) karena
Hamilton menulis 43 dari 57 makalah yang ditandatangani oleh salah satu dari
mereka 43/(43 + 14) = 0.75. Berarti 𝑃r(Madison) = 0.25.

Namun, Mosteller dan Wallace menetapkan peluang pada 50:50, yaitu


𝑃r(Hamilton) = 0.5 dan 𝑃r(Madison) = 0.5 hal ini meberikan hipotesisi “bobot”
yang sama dengan yang lain.

Ingat bahwa jumlah peluang seluruh hipotesis harus 1,0, ini berarti bahwa daftar
hipotesis alternatif telah lengkap. Selain itu, hipotesisnya saling eksklusif: makalah
tidak dapat ditulis oleh kedua pria tersebut.

Langkah 3

Tahap selanjutnta adalah mengumpulkan data. Data untuk masalah ini ditemukan
di makalah no. 54 dan panjangnya 2008 kata.

Pada akhirnya muncul pertanyaan hipotesisi mana (Hamlton atau Madison) yang
paling konsisten dengan data yang kita amati (makalah)?

- Pr(Hamilton|data) = berapa peluang bahwa penulisnya adalah Hamilton,


berdasarkan makalah?
- Pr(Madison|data) = berapa peluang bahwa penulisnya adalah Madison,
berdasarkan makalah?

Mosteller dan Wallace tidak menggunakan semua data yang mereka miliki (yakni,
setiap kata dalam makalah), melainkan berfokus pada beberapa kata dan frasa khas
sebagai kunci untuk mengidentifikasi setiap penulis.

Madison cenderung menggunakan kata by daripada Hamilton, sedangkan Hamilton


cenderung menggunakan kata to daripada Madison. Namun, pembeda terbaik
adalah penggunaan kata upon.

Hamilton menggunakan upon lebih sering daripada Madison. Yang pasti, metrik
lain bisa saja digunakan, termasuk panjang kalimat dari masing-masing pria.
Namun, kedua pria tersebut hampir identik dalam hal ini, dimana Hamilton
memiliki rata-rata 34.55 kata per kalimat, dan Madison rata-rata 34.59 per kalimat.
Panjang kalimat, oleh karena itu, tidak akan sangat membantu dalam memisahkan
dua hipotesis.

Disini kita akan menyederhanakan analisis Mosteller dan Wallace dan berfokus
pada frekuensi penggunaan upon dari kedua penilis.

Kata “upon” muncul dua kali di makalah yang dimaksud, kemudian nilai upon
dihitung dengan:

#𝑢𝑝𝑜𝑛𝑠 2
= = 0.000996
𝑗𝑢𝑚𝑙𝑎ℎ 𝑘𝑎𝑡𝑎 2008

Jika kita melakukan standarisasi nilai menjadi 1000 kata, maka manuskrip kita
memiliki nilai upon:

0.000996 ∗ 1000 = 0.996

Kami memerlukan beberapa standarisasi karena panjang makalah bervariasi:


makalah dengan 1 kata upon dalam 20 kata memiliki nilai upon yang sangat
berbeda dari makalah dengan 1 upon dalam 2008 kata.

Sekarang setelah kita memiliki data, kita perlu menentukan likelihood dari
pengamatan nilai upon 0.996 pada setiap hipotesis.

Langkah 4

Menentukan likelihood dari data yang diamati, asumsikan bahwa setiap hipotesisi
benar.

Dengan kata lain tetukan:

Pr(0.996|Hamilton)

Dan

Pr(0.996|Madison)
Di sini kami mengadu data yang diamati dengan masing-masing hipotesis. Langkah
ini seringkali merupakan bagian yang paling menantang dari analisis Bayesian.
Bagaimana tepatnya Anda menghitung likelihood dari data?

Dictionary.com memberikan 3 definisi dari likelihood:

- Keadaan yang mungkin terjadi atau kemungkinan; kemungkinan.


- Peluang atau kemungkinan sesuatu: Ada kemungkinan besar dia terpilih.
- Kuno. indikasi akhir yang menguntungkan; janji.

Jadi likelihood atau kemungkinan merupakan kata lain dari peluang. Namun, ada
sedikit perbedaan penggunaan istilah ini dalam analisis statistik, di mana likelihood
menggambarkan probabilitas data pengamatan yang telah dikumpulkan.

Wolfram Math World membedakan likelihood dan peluang sebagai berikut:


“likelihood adalah peluang hipotetis bahwa suatu peristiwa yang telah terjadi akan
menghasilkan hasil tertentu. Konsepnya berbeda dari peluang karena peluang
mengacu pada terjadinya peristiwa di masa depan, sedangkan likelihood mengacu
pada peristiwa masa lalu dengan hasil yang diketahui.

Selanjutnya kita hubungkan konsep likelihood dengan masalah makalah. Makalah


ini adalah peristiwa masa lalu dengan hasil yang diketahui: nilai upon adalah 0.996
per 1000 kata. Maka, langkah selanjutnya adalah menentukan seberapa besar
kemungkinan mengamati 0.996 upon per seribu kata pada setiap hipotesis:

Pr(0.996|Hamilton)

- Persamaan di atas bertanya: "Berapa likelihood dari pengamatan nilai 0.996


upon per 1000 kata, didasarkan bahwa penulisnya adalah Hamilton?"

Pr(0.996|Madison)

- Persamaan di atas bertanya: "Berapa likelihood dari pengamatan nilai 0.996


upon per 1000 kata, didasarkan bahwa penulisnya adalah Madison?"
Bagaimana tepatnya menghitung likelihood?

Misalkan Mosteller dan Wallace memiliki tim yang menelusuri 98 artikel yang
diketahui ditulis oleh Hamilton atau Madison, dan dengan susah payah menghitung
berapa kali setiap penulis menggunakan kata upon dan juga menghitung jumlah
kata dalam setiap dokumen. Data mungkin terlihat seperti yang ditunjukkan pada
Tabel berikut.

Nilai
Artikel Penulis Panjang Upon Nilai/Rate
Standarisasi
1 Madison 1672 1 0.0006 0.598
2 Hamiltton 2196 2 0.00091 0.911
3 Madison 1690 2 0.00118 1.183
4 Hamilton 1013 3 0.00296 2.962
5 Madison 1160 1 0.00086 0.862

Kumpulan data terdiri dari 98 artikel semacam itu, 48 di antaranya diketahui ditulis
oleh Hamilton, dan 50 di antaranya diketahui ditulis oleh Madison. Hanya 5
makalah pertama yang ditampilkan di atas.

Mosteller dan Wallace merangkum hasil standarisasi mereka seperti yang


ditunjukkan pada Tabel berikut.

Nilai/Rate Hamilton Madison


0 0 41
(0,1) 1 7
(1,2) 10 2
(2,3) 11 0
(3,4) 11 0
(4,5) 10 0
(5,6) 3 0
(6,7) 1 0
(7,8) 1 0
48 50

ingat, pada langkah ini dicari estimasi peluang data yang diamati pada setiap
hipotesis. Naskah yang tidak ditandatangani memiliki nilai upon 0.996 yang
termasuk dalam bin kedua:

Pr(0.996|Hamilton)
- Persamaan diatas bertanya: "Berapa peluang dari pengamatan nilai 0.996
upon per 1000 kata, didasarkan bahwa penulisnya adalah Hamilton?"

Pr(0.996|Madison)

- Persamaan diatas bertanya: "Berapa peluang dari pengamatan nilai 0.996


upon per 1000 kata, didasarkan bahwa penulisnya adalah Madison?"

Manakah dari dua hipotesis yang lebih cocok dengan nilai yang diamati?

Secara intuitif, data lebih konstan dengan hipotesis Madison

Jika likelihood adalah peluang, bagaimana kita mengukur "konsistensi" ini


dalam kaitannya dengan peluang?

Berdasarkan tabel di atas diperoleh:

- Salah satu dari 48 naskah Hamilton memiliki nilai upon lebih besar dari 0
tetapi kurang dari 1,0. Oleh karena itu, kita dapat menggunakan 1/48 =
0.021 sebagai estimasi likelihood data pada hipotesis Hamilton.
- Tujuh dari 50 naskah Hamilton memiliki nilai upon lebih besar dari 0 tetapi
kurang dari 1,0. Oleh karena itu, kita dapat menggunakan 7/50 = 0.140
sebagai estimasi likelihood data pada hipotesis Hamilton.

Langkah 5

Gunakan Teorema Bayes untuk menggitung Pr(Hamilton) dan Pr (Madison) yang


diperbarui, berdasarkan data.

Pr(Hamilton|0.996)

Pr(0.996|Hamilton) ∗ Pr (Hamilton)
=
Pr(0.996|Hamilton) ∗ Pr (Hamilton) + Pr(0.996|Madison) ∗ Pr (Madison)

- Sisi kiri persamaan merupakan “peluang posterior bahwa Hamilton menulis


makalah, mengingat makalah, berdasarkan nilai 0.996 upon per seribu kata.”
- Di sebelah kanan, pembilang mengalikan dua istilah: likelihood pengamatan
nilai upon per 1000 kata sebesar 0.996 pada hipotesis Hamilton, dikalikan
dengan probabilitas prior dari hipotesis Hamilton.
- Penyebut mengulangi pembilangnya, tetapi juga menambahkan hipotesis
Madison.

Berapakah peluang posterior dari hipotesis Hamilton?

0.021 ∗ 0.5 0.0105


Pr(Hamilton|0.996) = = = 0.1304
0.021 ∗ 0.5 + 0.140 ∗ 0.5 0.0805

Peluang posterior bahwa penulis makalah tersebut adalah Alexander Hamilton:

Pr(Hamilton|0.996) = 0.1304

Karena kita hanya memiliki dua hipotesis, maka peluang posterior bahwa
penulisnya adalah James Madison adalah 1 − 0.1304 = 0.8696

Pr(Madison|0.996) = 0.8696

Berikut ini grafik dari sidtribusi peluang posteriornya.

Dengan demikian, dapat disimpulkan bahwa penulis dari makalah No. 54 adalah
James Madison.
D. MASALAH ULANG TAHUN: INFERENSI BAYESIAN DENGAN
BERBAGAI HIPOTESIS DISKRIT

Dalam Inferensi Bayesian, prior mewakili probabilitas prior bahwa setiap hipotesis
alternatif benar, di mana sebuah prior berarti "sebelum pengumpulan data”. Analisis
Bayesian tidak dapat dilakukan tanpa menggunakan distribusi prior. Anda juga
harus mengumpulkan beberapa informasi untuk memperkirakan kemungkinan data
yang diberikan pada suatu hipotesis.

Contoh Kasus.

Masalah ini diambil dari cerita pendek berjudul Absen Pengobatan oleh P.G.
Wodehouse (penulis koleksi Jeeves yang terkenal). Dalam cerita ini, tokoh utama
dan penulis Reggie Pepper membantu temanna Bobbie Cardew. Bobbie Cardew
dicubit karena lupa ulang tahun istrinya. Sang istri, Mary, sudah muak dan telah
membuang Bobbie yang malang. Berikut surat yang dikirim Mary kepada Bobbie
dan percakapan antara Reggie dan Bobbie:

Bobbie tersayang, aku pergi jauh. Ketika kamu sudah cukup peduli untuk
mengingat kembali mengucapkan di hari ulang tahun ku, aku akan kembali.
Alamat ku di 341, London Morning News. -Mary

Pada contoh kasus di atas, kita dapat menentukan bulan kelahiran Mary dengan
menggunakan pendekatan Inferensi Bayesian.

Kita memiliki 12 hipotesis diskrit (𝑛 = 12). Teorema Bayes dapat dinyatakan


sebagai beirkut.

𝑃𝑟(𝑑𝑎𝑡𝑎|𝐻𝑖 ) × Pr (𝐻𝑖 )
𝑃𝑟(𝐻𝑖 |𝑑𝑎𝑡𝑎) =
∑𝑛𝑗=1 𝑃𝑟(𝑑𝑎𝑡𝑎|𝐻𝑗 ) × Pr (𝐻𝑗 )

Dengan kata lain, probabilitas posterior untuk hipotesis 𝑖 memberikan observasi


data (data) dituliskan 𝑃𝑟(𝐻𝑖 |𝑑𝑎𝑡𝑎). Itu adalah rumus proporsional. Pembilang
terdiri dari kemungkinan mengamati data di bawah hipotesis 𝑖 , yang dituliskan
dengan 𝑃𝑟(𝑑𝑎𝑡𝑎|𝐻𝑗 ), dikalikan dengan probabilitas prior untuk hipotesis 𝑖, yang
dituliskan dengan Pr (𝐻𝑖 ). Dalam semua proses ini, penyebut diulang sebanyak 12
𝑛
hipotesis, dan menjumlahkannya. Simbol Σ𝑗=1 berarti jumlah. Dalam kasus ini,
12
dituliskan dengan Σ𝑗=1 . Indeks berasal dari 𝑗 = 1,2, … 12 untuk memnunjukkan
bahwa 12 potongan informasi dijumlahkan bersama. Singkatnya, indeks 𝑖
menunjukkan hipotesis tertentu, sedangkan 𝑗 adalah indeks penjumlahan dan
menunujukkan suku dalam peneyebutnya.

Langkah 1. Identifikasi Hipotesis

Ada 12 bulan dalam setahun, dan mewakili hipotesis alternatif. Perhatikan bahwa
hipotesis saling tumpang tindih (khusus dan umum). Khusus karena bulan kelahiran
Mary tidak bias terjadi pada bulan Oktober dan November. Umum karena Reggie
dan Bobbie mempertimbangkan setiap hasil yang mungkin berhubungan dengan
bulan kelahiran Mary. Misalkan:

• Januari = Hipotesis Januari


• Februari = Hipotesis Februari
• Maret = Hipotesis Maret
• dll

Langkah 2. Menentukan Inferensi Statistik

Langkah ini dilakukan karena Reggie dan Bobbie tidak yakin hipotesis mana yang
benar.

• Pr(𝐽𝑎𝑛𝑢𝑎𝑟𝑦) = Probabilitas prior bahwa bulan kelahiran Mary adalah


Januari
• Pr(𝐹𝑒𝑏𝑟𝑢𝑎𝑟𝑖) = Probabilitas prior bahwa bulan kelahiran Mary adalah
Februari
• Pr(𝑀𝑎𝑟𝑒𝑡) = Probabilitas prior bahwa bulan kelahiran Mary adalah
Maret
• Dll.
Ketika Reggie dan Bobbie pertama kali memulai, mereka sama sekali tidak tahu
bulan apa yang merupakan bulan kelahiran Mary. Jadi, mereka memberikan bobot
yang sama pada setiap hipotesis, yaitu 0.083. Ingatlah bahwa jumlah dari
probabilitas yang mmebentuk distribusi prior harus 1.0, sehingga setiap bulan
1
memiliki probabilitas = 0.083. Berikut merupakan diagram batang yang
12

menggambarkan probabilitas prior untuk setiap hipotesis alternatif yang


disediakan.

Ini disebut prior tidak informatif dan menghasilkan probabilitas yang sama untuk
semua hipotesis. Artinya, setiap bulan memiliki probabilitas prior yang sama
sebagai bulan kelahiran Mary. Istilah lain yang memiliki konsep yang sma termasuk
prior terbatas dan tidak terbatas. Sebuah halaman web SAS tentang analisis
Bayesian menyatakan bahwa “sebuah distribusi prior tidak informatif jika priornya
relatif datar terhadap fungsi kemungkinan”. Wikipedia mendefinisikan prior tidak
informatif sebagai prior yang “mengungkapkan informasi yang terbatas atau tidak
terbatas tentang suatu variabel. Aturan paling sederhana dan aturan lama untuk
menentukan prior tidak informatif adalah prinsip dari ketidakpedulian, yang
memberikan probabilitas yang sama nntuk semua kemungkinan.

Prior tidak informatif adalah distribusi prior yang menambahkan sedikit atau
tidak ada informasi terhadap Infrensi Bayesian. Ketika seorang analis
menggunakan prior tidak informatif, tujuannya adalah untuk mendaptakan
distribusi posterior yang dibentuk terutama oleh kemungkinan data.
Namun, Reggie dan Bobbie mungkin telah menggunakan informasi dalam buku
“Ketika Kamu dilahirkan” untuk menetapkan prior yang berbeda. Dalam kasus ini,
mereka akan mempekerjakan seorang informatif distribusi prior. Sebuah halaman
web SAS menyatakan bahwa “sebuah informasi prior adalah prior yang tidak
didominasi oleh kemungkinan dan berdampak pada distribusi posterior. Jika
distribusi prior mendominasi kemungkinan, maka jelas bahwa prior tersebut adalah
prior informatif. Wikipedia mendefinisikan informasi prior adalah “informasi
terbatas dan pasti tentang suatu variabel”.

Sebuah prior informatif adalah sebuah distribusi prior yang menambahkan


informasi terhadap Inferensi Bayesian. Ketika seorang analis menggunakan
prior informatif, tujuannya adalah untuk mendapatkan distribusi posterior yang
dibentuk oleh prior dan kemungkinan data.

Misalkan Reggie dan Bobbie yakin bahwa hipotesis Februari dan Mei lebih
mungkin daripada hipotesis lainnya berdasarkan informasi dalam buku “Ketika
Kamu dilahirkan”. Berikut mungkin merupakan distribusi prior informatif mereka
dengan jumlah probabilitas di semua hipotesis sama dengan 1.00.

Langkah 3. Mengumpulkan Data

Dalam kasus ini, kita memiliki 1 titik data: seorang wanita Bernama Mary lahir
pada tahun 1900.

Teorema Bayes dapat memberikan probabilitas posterior untuk bulan kelahirannya.


Berikut adalah Teorema Bayes:
𝑃𝑟(𝑑𝑎𝑡𝑎|𝐻𝑖 ) × Pr (𝐻𝑖 )
𝑃𝑟(𝐻𝑖 |𝑑𝑎𝑡𝑎) =
∑𝑛𝑗=1 𝑃𝑟(𝑑𝑎𝑡𝑎|𝐻𝑗 ) × Pr (𝐻𝑗 )

Sebagai contoh, probabilitas posterior bahwa Mary lahir di bulan Januari dapat
dituliskan:

𝑃𝑟(1 𝑀𝑎𝑟𝑦|𝐽𝑎𝑛𝑢𝑎𝑟𝑖) × Pr (𝐽𝑎𝑛𝑢𝑎𝑟𝑦)


𝑃𝑟(𝐽𝑎𝑛𝑢𝑎𝑟𝑖|1 𝑀𝑎𝑟𝑦) =
∑𝑛𝑗=1 𝑃𝑟(1 𝑀𝑎𝑟𝑦|𝐻𝑗 ) × Pr (𝐻𝑗 )

Langkah 4. Menentukan Estimasi Kemungkinan

Sekarang Reggie dan Bobbie perlu memperkirakan kemungkinan untuk mengamati


data (1 Mary) pada setiap hipotesis bulan.

Untuk menjawab soal ini, kita harus mengurutkan perempuan mana yang lahir
dengan nama Mary perbulan. Misalkan, kita memiliki data tentang nama
perempuan yang lahir setiap bulan pada tahun 1900 di Shire Inggris, tempat Mary
dilahirkan (Tabel 6.1). Data tersebut mewakili data dari mana kita akan menghitung
kemungkinan. Perhatikan bahwa Mary-subjek cerita-termasuk dalam tabel ini,
tetapi kita tidak yakin nama Mary berada di mana.

Data Nama Perempuan yang Lahir Setiap Bulan Pada Tahun 1900 di Shire Inggris
Bulan Kelahiran Perempuan Marys
Januari 1180 57
Februari 963 14
Maret 899 22
April 1190 20
Mei 862 20
Juni 976 28
Juli 1148 11
Agustus 906 10
September 1147 8
Oktober 945 80
November 907 95
Desember 917 100
Kita dapat menggambarkan data mentah ini sebagai histogram frekuensi, dengan
bulan-bulan pada sumbu 𝑥 dan total jumlah kelahiran pada sumbu 𝑦. Ingatlah
bahwa histogram frekuensi adalah distribusi dari data mentah. Dapat dilihat pada
tahun 1900, nama Mary adalah nama musim dingin yang popular, tetapi tidak
begitu popular pada waktu lain dalam setahun.

Sekarang kita harus menentukan kemungkinan data, dengan asumsi pada setiap
hipotesis adalah benar. Dalam kasus ini, kita harus menentukan seberapa besar
kemungkinan mengamati bayi baru lahir Bernama Mary setiap bulan. Kita
butuhkan:

• Pr (1 𝑀𝑎𝑟𝑦|𝐽𝑎𝑛𝑢𝑎𝑟𝑖)
• Pr (1 𝑀𝑎𝑟𝑦|𝐹𝑒𝑏𝑟𝑢𝑎𝑟𝑖)
• Pr (1 𝑀𝑎𝑟𝑦|𝑀𝑎𝑟𝑒𝑡)
• Dll.

Perhatikan bahwa kemungkinan bersyarat untuk setiap hipotesis! Dalam analisis


Bayesian, kemungkinan diinterpretasikan di sini sebagai probabilitas
mengamati data, diberikan hipotesis.

Kemungkinan diberi nama Mary di setiap bulan hanalah jumlah May dibagi dengan
jumlah kelahiran. Gambar 6.4 memberikan kemungkinan diberi nama Mary untuk
setiap bulan pada tahun 1900. Perhatikan sumbu 𝑦 adalah probabilitas (atas
kemungkinan) dan bentuk grafik ini mirip dengan distribusi frekuensi pada Gambar
tetapi tidak persis sama, karena kita harus menyesuaikan fakta bahwa setiap bulan
memiliki jumlah kelahiran yang berbeda. Misalnya 20 May lahir di bulan April dan
Mei, tetapi di bulan April ada 1190 kelahiran sedangkan di bulan Mei hanya ada
862 kelahiran.

Sekarang kita memiliki kemungkinan untuk mengamati bayi Bernama Mary setiap
bulan dalam setahun. Seperti Oktober, November, dan Desember lebih popular
dalam hal “Mary”.

Langkah 5. Menghitung Probabilitas Posterior

Pada langkah ini, kita menggabungkan prior dan kemungkinan untuk mendapatkan
probabilitas posterior bahwa setiap bulan adalah bulan kelahiran Mary dengan
Teorema Bayes. Kita akn menggunakan prior informatif berdasarkan buku “Ketika
Kamu dilahirkan”.

Menghitung probabilitas posterior hipotesis Januari:

𝑃𝑟(1 𝑀𝑎𝑟𝑦|𝐽𝑎𝑛𝑢𝑎𝑟𝑖) × Pr (𝐽𝑎𝑛𝑢𝑎𝑟𝑦)


𝑃𝑟(𝐽𝑎𝑛𝑢𝑎𝑟𝑖|1 𝑀𝑎𝑟𝑦) =
∑𝑛𝑗=1 𝑃𝑟(1 𝑀𝑎𝑟𝑦|𝐻𝑗 ) × Pr (𝐻𝑗 )

Pembilang berfokus pada hipotesis Januari, yang mengkalikan kemungkinan


mengamati 1 Mary berdasarkan hipotesis Januari, 𝑃𝑟(1 𝑀𝑎𝑟𝑦|𝐽𝑎𝑛𝑢𝑎𝑟𝑖),dikalikan
dengan probabilitas prior dari hipotesis Januari, Pr (𝐽𝑎𝑛𝑢𝑎𝑟𝑖).

Berdasarkan distribusi kemungkinan pada Gambar 6.4, kemungkinan diberi nama


Mary pada bulan Januari adalah 0.048 (57 𝑀𝑎𝑟𝑦/1180 perempuan lahir pada
bulan Januari). Kita mengkalikannya dengan probabilitas prior dari hipotesis
Januari, yaitu 0.06. hasil kali kedua suku ini adalah 0.0029.

Pembilang dan penyebut memiliki arti yang berbeda. Kita harus menghitung
kemungkinan mengamati 1 Mary di bawah pada setiap hipotesis, mengkalikan
hasilnya dengan prior yang sesuai dan akhirnya menjumlahkan hasilnya. Tabel
dibawah ini membantu kita menentukan semua 12 hipotesis.

Bulan Prior Kemungkinan Produk Penyebut Posterior


Januari 0.06 0.0483 0.0029 0.0342 0.0848
Februari 0.20 0.0145 0.0029 0.0342 0.0848
Maret 0.06 0.0245 0.0015 0.0342 0.0439
April 0.06 0.0168 0.0010 0.0342 0.0292
Mei 0.20 0.0232 0.0046 0.0342 0.1345
Juni 0.06 0.0287 0.0017 0.0342 0.0497
Juli 0.06 0.0096 0.0006 0.0342 0.0175
Agustus 0.06 0.0110 0.0007 0.0342 0.0205
September 0.06 0.0070 0.0004 0.0342 0.0117
Oktober 0.06 0.0847 0.0051 0.0342 0.1491
November 0.06 0.1047 0.0063 0.0342 0.1842
Desember 0.06 0.1091 0.0065 0.0342 0.1901
1.00 0.4821 0.0342 1.0000

Beberapa hal yang perlu diperhatikan:

• Perhatikan bahwa untuk setiap bulan, pada Gambar yang diberikan sebelumnya,
kemungkinan dari Gambar setelahnya diberikan, dan produk dari keduanya
diberikan.
• Jumlahnya disediakan di baris paling bawah tabel. Jumlah dari prior harus 1.0,
tetapi ini tidak berlaku untuk kemungkinan.
• Jumlah produk (kemungkinan dikalikan prior) adalah 0.0342. Ini adalah
penyebut Teorema Bayes untuk soal ini, dan ini ditetapkan pada 12 hipotesis.
Yang berubah adalah pembilangnya, dan ini bergantung pada hipotesis mana
yang akan dianalisis.
• Probabilitas posterior untuk setiap bulan kemudian dihitung sebagai hasil kali
dibagi dengan penyebut. Perhatikan bahwa jumlah probabilitas posterior di
seluruh hipotesis adalah 1.0.
• Perhatikan probabilitas prior didominasi oleh hipotesis Februari dan Mei. Data
menunjukkan bahwa kebanyakan bayi bernama “Mary” lahir pada bulan
Oktober, November, atau Desember; kemungkinan mereka lebih tinggi. Setelah
mengamati data, probabilitas posterior untuk Februari dan Mei berkurang,
sedangkan probabilitas posterior untuk Oktober, November, dan Desember
meningkat relatif terhadap sebelumnya.

Bobbie dan Reggie memulai dengan informatif sebelumnya berdasarkan buku


"Ketika Kamu dilahirkan". Mereka kemudian mengumpulkan data untuk
menghitung kemungkinan bernama Mary pada tahun 1900. Mereka kemudian
menggunakan Teorema Bayes untuk menghadapi setiap hipotesis dengan data
tersebut. Artinya, mereka menghitung probabilitas posterior untuk setiap hipotesis
berdasarkan data. Menambahkan "data Mary" bersama dengan prior "Ketika Kamu
dilahirkan" tidak akan membuat Bobbie keluar dari acarnya, tetapi kita dapat
melihat bahwa distribusi posterior sangat berbeda dari distribusi prior. Pada titik
ini, Bobbie dapat menggunakan distribusi posterior sebagai distribusi prior jika
sumber informasi lain tersedia.
Bulan Prior Kemungkinan Produk Penyebut Posterior
Januari 0.83 0.0483 0.0040 0.0400 0.1000
Februari 0.83 0.0145 0.0012 0.0400 0.0300
Maret 0.83 0.0245 0.0020 0.0400 0.0500
April 0.83 0.0168 0.0014 0.0400 0.0350
Mei 0.83 0.0232 0.0019 0.0400 0.0475
Juni 0.83 0.0287 0.0024 0.0400 0.0600
Juli 0.83 0.0096 0.0008 0.0400 0.0200
Agustus 0.83 0.0110 0.0009 0.0400 0.0225
September 0.83 0.0070 0.0006 0.0400 0.0150
Oktober 0.83 0.0847 0.0070 0.0400 0.1750
November 0.83 0.1047 0.0087 0.0400 0.2175
Desember 0.83 0.1091 0.0091 0.0400 0.2275
1.000 0.4821 0.0400 1.0000

Perhatikan bahwa jumlah probabilitas prior di seluruh hipotesis adalah 1.00, seperti
halnya jumlah probabilitas posterior di seluruh hipotesis. Untuk contoh ini dengan
prior yang tidak informatif, sebelumnya telah dicatat bahwa kemungkinan
mendorong hasil. Dapat dilihat ini pada hipotesis Januari (sebagai contoh). Jika kita
hanya menggunakan data, kita akan mengatakan bahwa probabilitas Mary lahir
0.0483
pada bulan Januari adalah 0.4821 = 0.1000. Di sini, pembilangnya adalah 0.0483,

yaitu probabilitas bahwa Mary lahir pada bulan Januari. Penyebutnya adalah semua
kemungkinan. Dengan demikian, bahkan jika kita tidak emnggunakan prior sama
sekali, kita bisa mendapatkan probabilitias posterior 0.1000. Ini mengilustrasikan
apa yang kami maksud ketika kami mengatakan "dengan prior yang tidak
informatif, kemungkinan data mendorong hasil". Namun, dengan analisis Bayesian,
distribusi prior diperlukan.
Sekarang, mari kita bandingkan dua distribusi posterior, di mana satu menggunakan
prior informatif dan satu lagi menggunakan prior tidak informatif. Grafik pada
Gambar dibawah menunjukkan distribusi posterior untuk "tidak informatif" (datar)
versus "informatif" (Ketika Kamu dilahirkan) sebelumnya yang telah kita lihat,
dengan hasil yang tidak informatif ditunjukkan dengan warna biru.

Grafik diatas adalah contoh dari analisis sensitivitas prior (Berger et al., 2000). Kita
membandingkan dua distribusi posterior dan menilai pengaruh masing-masing
distribusi prior pada posterior, yang pada gilirannya memengaruhi kesimpulan
kami. Analisis sensitivitas prior adalah salah satu alat dalam toolkit Analisis
Bayesian yang kokoh.
Kata kokoh didefinisikan sebagai kuat dan sehat; tangguh; kokoh dalam konstruksi;
kuat dan efektif dalam semua atau sebagian besar situasi dan kondisi. Menurut
Wikipedia, Robust Bayesian Analysis, juga disebut analisis sensitivitas Bayesian,
menyelidiki kekokohan jawaban dari analisis Bayesian terhadap ketidakpastian
tentang detail-detail tepat dari analisis. [artikel diakses pada tanggal 15 Agustus
2017].

Pikirikanlah. Bagaimana jika 1000 perempuan lahir setiap bulan, dan 15 di


antaranya selalu bernama Mary. Kita telah mengamati seseorang yang bernama
Mary. Seberapa besar kemungkinan dia lahir pada bulan Januari? Februari?
Jawabannya adalah kemungkinannya identik untuk setiap hipotesis. Dalam hal ini,
distribusi posterior akan identik dengan distribusi prior.

Dalam analisis Bayesian dan dedukasi ilmiah, tujuan utama analisis adalah
mengumpulkan data yang akan membedakan hipotesis.

Dalam kata-kata dari Zhu dan Lu (2004), prior datar belum tentu tidak informatif
dan prior tidak informatif belum tentu datar.

Subjektivitas umumnya dikaitkan dengan sebuah kepercayaan. Dalam arti tertentu,


semua prior bersifat subjektif karena analis harus memilih satu dan dengan
demikian, menjalankan subjektivitas. Syarat obyektif prior biasanya mengacu pada
prior yang dapat dibenarkan oleh rasionalitas dan konsistensi. Tujuan umum dalam
menggunakan tujuan prior adalah bahwa analis yang berbeda dengan informasi
yang sama harus sampai pada kesimpulan yang sama.

Akhirnya, Bobbie ingat bahwa dia membawa Mary ke sebuah drama untuk ulang
tahunnya. Setelah sedikit pekerjaan detektif, dia menentukan bahwa ulang tahun
Mary adalah 8 Mei.
E. MASALAH POTRET: INFERENSI BAYESIAN DENGAN
KEMUNGKINAN BERSAMA

Pada bab ini membahas Pendekatan Inferensi Bayesian untuk mengatasi masalah
pada potret.

Contoh Kasus

Ada sedikit perselisihan tentang apakah itu benar-benar dia (Thomas Bayes). Dalam
bab ini, kita akan menggunakan pendekatan inferensi Bayesian untuk mengatasi
masalah tersebut.

Profesor Bellhouse menulis:

"Gambar 7.1 di atas Buletin IMS diduga dari Thomas Bayes, yang meninggal pada
tahun 1761 dalam usia 59 tahun dan lahir pada tahun 1701 atau 1702. Saya telah
menambahkan "seharusnya" karena saya percaya bahwa keaslian gambar tersebut
diragukan. Ada tiga petunjuk dalam gambar yang membawa saya ke kesimpulan
ini. Untuk tujuan perbandingan, perhatikan gambar (lihat Gambar 7.2) dari tiga
menteri Nonkonformis lainnya di sebelah kiri Joshua Bayes, ayah Thomas es (sic)
(w. 1746); di tengah Richard Price (potret ini bertanggal 1776), yang membaca
makalah Bayes di depan Royal Society dan di sebelah kanan Philip Doddridge
(1702-1751), yang merupakan teman ipar Bayes, Thomas Cotton."
Bellhouse melanjutkan: "Hal pertama yang perlu diperhatikan dalam gambar ini
adalah tidak adanya wig, atau jika ada wig, itu pasti gaya yang salah untuk periode
tersebut. Kemungkinan Bayes akan mengenakan wig yang mirip dengan milik
Doddridge., yang keluar dari mode pada tahun 1740-an, atau wig yang mirip dengan
Price's, yang menjadi gaya pada saat yang sama. Hal kedua yang perlu diperhatikan
adalah bahwa Bayes tampaknya mengenakan gaun ulama seperti ayahnya atau rok
yang lebih besar mantel dengan kerah tinggi. Saat melihat dua gambar lainnya, kita
dapat melihat bahwa gaun tersebut tidak sesuai dengan gaya generasi Bayes dan
mantel rok dengan kerah besar jelas ketinggalan zaman. Terakhir, Price
mengenakan stok atau kerah lebar pada kemejanya yang muncul di lehernya dalam
gambar, ini menjadi mode dari sekitar tahun 1730 hingga 1770. Karena Doddridge,
satu generasi lebih muda, muncul tanpa stok atau kerah kemeja, patut dipertanyakan
apakah Bayes akan memakai stok. abad mencari kerah ulama dalam gambar ini lagi
anakronistik.

Jadi, Profesor Bellhouse membuat argumennya berdasarkan mode, termasuk


penggunaan wig. Jika Anda bertanya-tanya, jas rok adalah jas pria berdada ganda
dengan rok panjang, yang sekarang dipakai terutama pada acara-acara resmi. Dan,
jika Anda bertanya-tanya, seorang Nonkonformis adalah seorang Kristen Protestan
yang tidak "sesuai dengan Undang-Undang Keseragaman Inggris tahun 1662.

Di tahun 1700-an, wig putih seorang pria tidak hanya memberi tahu pria lain bahwa
dia adalah salah satunya; itu juga bisa menandakan pria seperti apa dia. Ada gaya
umum yang dikenakan pengusaha dan pekebun, namun ada juga gaya khusus yang
dikaitkan dengan profesi. Dokter, misalnya, mengenakan "wig fisik", yang menurut
Karin Calvert "memiliki penampilan seperti wol dan menggoda yang dikenal
sebagai bob yang rapi". Subset khusus lainnya adalah "wig pendeta", cocok untuk
menteri dan dicirikan oleh "barisan ikal yang rapi". Gambar 7.3 menunjukkan
beberapa contoh dan variasi gaya.

Menentukan Probabilitas bahwa foto tersebut adalah Thomas Bayes?

Teorema Bayes yang digunakan untuk mengatasi masalah:

𝑃𝑟(𝐻𝑖 |𝑑𝑎𝑡𝑎) ∗ 𝑃𝑟(𝐻𝑖 )


𝑃𝑟(𝐻𝑖 |𝑑𝑎𝑡𝑎) = 𝑛
∑𝑗=1 𝑃𝑟(𝐻𝑗 |𝑑𝑎𝑡𝑎) ∗ 𝑃𝑟(𝐻𝑗 )

Menggunakan langkah-langkah analisis Bayesian

Langkah 1. Identifikasi Hipotesis

Pada kasus ini mempertimbangkan 2 hipotesis, yaitu:

𝐻1 : Potret itu adalah Thomas Bayes

𝐻2 : Potret itu buksn Thomas Bayes

Langkah 2. Menentukan Inferensi Statistik

Langkah ini dilakukan karena penulis tidak yakin hipotesis mana yang benar.

𝑃𝑟 (> 0.5): Probabilitas prior bahwa sebelum 0,5 untuk "Thomas Bayes Hipotesis”
𝑃𝑟 (= 0.5): Probabilitas prior bahwa 0,5 untuk "Bukan Thomas Bayes Hipotesis”

Langkah 3. Mengumpulkan Data

Untuk masalah ini, penulis mempertimbangkan sumber data berikut yang terdapat
dalam potret "Thomas Bayes" ini:

• Wig (atau kekurangannya). Kita tahu bahwa kebanyakan menteri di tahun 1700-
an memakai rambut palsu. Tapi tidak semua dari mereka! Jika semua menteri
mengenakan wig, tidak mungkin potret Thomas Bayes ini. Tapi mungkin
Thomas adalah Nonkonformis non-konformis yang menolak memakai wig.
• Kemiripan "Thomas Bayes" dengan Joshua Bayes. Seberapa mirip Anda
dengan salah satu dari orang tua kandung Anda? Dalam beberapa kasus, ada
kesamaan yang mencolok, tetapi tidak begitu banyak dalam kasus lain. Kami
tidak memiliki kemewahan tes DNA, tetapi misalkan kami dapat mengukur
karakteristik seperti bentuk alis, panjang hidung, panjang dahi, dan sebagainya
dari Joshua Bayes (dari potret terkenal ayah Thomas Bayes) dan "Thomas
Bayes", dan menghasilkan indeks kemiripan. Misalkan indeks ini adalah
bilangan bulat yang berkisar antara 0 dan 100, di mana sama sekali tidak
menunjukkan kesamaan dalam fitur yang diukur, dan 100 adalah tiruan yang
identik. Dengan demikian, semakin banyak mirip Thomas dengan Joshua,
semakin banyak bukti yang kita miliki bahwa pria itu adalah Thomas Bayes.

Data di sini adalah 0 atau 1, di mana

- 0 menunjukkan tidak ada wig


- 1 menunjukkan ada wig.
- Pria itu jelas tidak mengenakan wig, jadi pengamatan tunggal untuk penalaran
ini adalah 0.

Data yang diamati sehubungan dengan kesamaan keseluruhan antara kedua pria
tersebut, berdasarkan hal-hal seperti bentuk alis, lebar hidung, bentuk mulut, dan
fitur wajah lainnya yang dapat kami ukur dari gambar. Mungkin jika "Thomas"
memakai wig, akan lebih mudah untuk fokus pada fitur wajah saja. Mari beri dia
satu (lihat Gambar 7.4)

Sekilas, alis dan hidung memiliki beberapa kemiripan, tetapi mata dan mulutnya
tidak aktif. Mungkin "Thomas" mewarisi sifat-sifat ini dari ibunya! Untuk soal ini,
mari kita asumsikan indeks kesamaan = 55 dan wig = 0.

Langkah 4. Menentukan Estimasi Kemungkinan

Ini adalah langkah kritis. Kami sekarang memiliki dua sumber data, dan kami
berasumsi bahwa setiap informasi independen satu sama lain. Kita sekarang dapat
menghitung kemungkinan mengamati setiap bagian adalah Thomas Bayes. data di
bawah setiap hipotesis (potretnya adalah Thomas Bayes vs. potretnya bukan dari
Setelah kita memiliki dua perhitungan kemungkinan, kita dapat menghitung
kemungkinan gabungan untuk setiap hipotesis. Anda mungkin ingat bahwa
probabilitas gabungan mengacu pada probabilitas bahwa beberapa peristiwa akan
terjadi bersamaan, di sini kami tertarik pada kemungkinan pengamatan tanpa wig
dan skor kesamaan 55. Mari kita kerjakan setiap informasi secara terpisah untuk
setiap hipotesis dan kemudian hitung kemungkinan bersama dengan mengalikan
dua hasil kemungkinan independen secara bersamaan.

- Wig

Kita tidak dapat menghitung secara langsung kemungkinan bahwa laki-laki dalam
potret tersebut adalah Thomas Bayes, tetapi kita dapat menghitung kemungkinan
bahwa seorang lelaki paruh baya yang duduk untuk potret pada tahun 1750-an
adalah seorang pendeta yang tidak memakai rambut palsu. Misalkan kita dapat
mengumpulkan informasi tentang populasi yang diminati ini (pria paruh baya yang
duduk untuk potret pada tahun 1750-an.

Orang Mentir Wig


1 0 1
2 1 0
3 0 1
4 0 1
5 1 0
6 1 0
7 1 1
8 1 0
9 1 1
10 0 1

Kolom pertama mengidentifikasi seseorang, kolom kedua mengidentifikasi apakah


orang tersebut adalah menteri atau bukan (dimana 1 = menteri), dan kolom ketiga
mengidentifikasi apakah orang tersebut mengenakan wig (dimana 1 = teguran).

wig No wig Jumlah


Ministers 8 2 10
Non-Ministers 15 75 90
23 77 100

Tabel ini memiliki empat "kuadran". Data aktual kami disimpan di kuadran kiri
atas, diarsir dengan warna biru paling gelap. Kuadran kanan atas (berarsir lebih
terang) menjumlahkan jumlah menteri (10) dan non-menteri (90) dalam dataset
kami. Kuadran kiri bawah (arsir lebih terang) menjumlahkan jumlah pria yang
mengenakan rambut palsu saat duduk untuk potret (23) dan yang tidak (77).
Kuadran kanan bawah (tanpa arsir) menghasilkan total keseluruhan, 100. Sekarang
mari kita gambarkan hasilnya dalam diagram Venn yang sama.
Kotak (yang tidak diskalakan) menampung 100 individu dalam kumpulan data
kami. Di sini, kita bisa melihat bahwa 23% pria mengenakan wig saat duduk untuk
berfoto. Kita juga bisa melihat bahwa 10% dari semua laki-laki adalah menteri. Dan
hanya 2% pria yang dijadikan sampel adalah menteri yang tidak memakai wig.

Sekarang, besar kemungkinan untuk mengamati data kita, tanpa wig, di bawah
hipotesis Thomas Bayes. Jawabannya adalah 0,02 (2/100=0,02), yang merupakan
probabilitas bersama bahwa seorang pria yang duduk untuk potret pada pertengahan
tahun 1700-an adalah seorang menteri dan tidak memakai wig Oke, sekarang mari
kita tanyakan seberapa besar kemungkinan mengamati kita data, tanpa wig, di
bawah hipotesis bukan Thomas Bayes. Ini lebih rumit karena pria dalam potret itu
bisa saja adil tentang siapa pun. Jawabannya di sini adalah 0,77, yang merupakan
probabilitas marjinal bahwa seorang pria yang duduk di potret pada pertengahan
tahun 1700-an tidak akan mengenakan wig.

- Kesamaan antara "Thomas Bayes" dan Joshua Bayes

Kita menghitung skor kemiripan antara "Thomas Bayes" dan Joshua Bayes, dengan
hasil 55. Sekarang kita beralih ke pertanyaan, berapa kemungkinan mengamati skor
kemiripan 55 di bawah setiap hipotesis? Misalkan kita dapat mengumpulkan skor
kesamaan antara 1000 ayah dan anak laki-laki yang diketahui dan juga antara 1000
pasangan pria yang tidak berkerabat di Inggris. 10 record pertama dari kumpulan
data kita mungkin terlihat seperti yang ditunjukkan pada Tabel berikut.

Pasangan Terkait Kesamaan


1 0 31
2 0 80
3 0 29
4 0 71
5 1 60
6 1 61
7 1 26
8 1 39
9 1 29
10 1 75

Kolom pertama mengidentifikasi pasangan, kolom kedua mengidentifikasi apakah


pasangan laki-laki memiliki hubungan ayah-anak (di mana 1 = Ya), dan kolom
ketiga mengidentifikasi skor kesamaan mereka. Kami akan merujuk ini sebagai
dataset 2: perhatikan bahwa ini terpisah dari dataset wig kami atau dataset 1.
Mungkin berguna untuk membuat grafik data, di mana Anda dapat melihat bahwa
pria yang tidak berkerabat cenderung memilikinya skor keterkaitan yang lebih
kecil, tetapi ada beberapa skor (seperti skor yang kami amati dari 55 in hitam) yang
dapat menjadi salah satu kelompok.

Menghitung kemungkinan di bawah setiap hipotesis, kami tidak ingin mengetahui


probabilitas yang tepat untuk mengamati 55. Yang benar-benar ingin kami temukan
adalah di mana hasil pengamatan kami berada dalam kaitannya dengan sisa
distribusi yang diberikan. Misalnya, skor 55 berada di ujung kanan distribusi yang
tidak terkait (kiri), tetapi berada di bagian kiri distribusi terkait (kanan). Untuk
membuatnya dapat dibandingkan, kita perlu menghitung luas setiap distribusi yang
berada di sebelah kanan skor kemiripan yang diamati sebesar 55. Jadi, 55 adalah
skor minimum yang kita minati.

Lalu kemungkinan mengamati skor kesamaan 55 atau lebih besar di bawah masing-
masing hipotesis sebagai berikut:

• Untuk hipotesis Thomas Bayes, kedua pria ("Thomas" dan Joshua) akan terkait.
Jika kita melihat distribusi hijau di atas, kita melihat bahwa kira-kira 69% dari
skor kesamaan antara laki-laki terkait lebih besar dari 55 (dan 31% di bawah
$5). Jadi, kemungkinan kemampuan mengamati skor kesamaan minimal 55 di
bawah hipotesis Thomas Bayes adalah 0,69.
• Untuk hipotesis bukan Thomas Bayes, kedua pria ("Thomas" dan Joshua) tidak
berhubungan. Jika kita melihat distribusi jingga di atas, kita melihat bahwa kira-
kira 1% skor kemiripan antara pria yang tidak berkerabat lebih besar dari nilai
observasi 55 (dan 99% di bawah $5). Kemungkinan untuk mengamati skor
kesamaan 55 atau lebih mengingat mereka tidak berhubungan dengan demikian
adalah 1%.

Menggabungkan kedua hasil menjadi satu kemungkinan untuk setiap hipotesis?

Jika dua sumber data kita independen, kita cukup mengalikan dua komponen
kemungkinan bersama-sama: Untuk hipotesis Thomas Bayes, itu akan menjadi

• bukti dari rambut palsu 0,02 (probabilitas bersama bahwa seorang laki-laki yang
duduk untuk potret di pertengahan 1700-an adalah seorang pendeta yang tidak
memakai rambut palsu)
• bukti dari skor kesamaan = 0,69 (69% dari skor kesamaan ayah-anak yang
diketahui setidaknya 55).

Dengan demikian, kemungkinan mengamati data di bawah hipotesis Thomas Bayes


adalah produk dari istilah-istilah berikut:
0,02-0, 69 0,0138

Untuk hipotesis bukan Thomas Bayes, itu akan menjadi

• bukti dari rambut palsu 0,77 (probabilitas marjinal seorang pria yang duduk
untuk potret masuk pertengahan 1700-an tidak akan memakai wig)
• bukti dari skor kesamaan = 0,01 (1% pria yang tidak berkerabat memiliki skor
kesamaan sebesar minimal 55).

Dengan demikian, kemungkinan mengamati data di bawah hipotesis bukan Thomas


Bayes adalah produk dari istilah-istilah ini:

0.77*0.01=0.0077

Langkah 5. Menghitung Probabilitas Posterior

Menggunakan Teorema Bayes. Kami memiliki dua hipotesis, jadi Teorema Bayes
bisa

ditulis sebagai:

𝑃𝑟(𝐻𝑖 |𝑑𝑎𝑡𝑎) ∗ 𝑃𝑟(𝐻𝑖 )


𝑃𝑟(𝐻𝑖 |𝑑𝑎𝑡𝑎) =
∑2𝑗=1 𝑃𝑟(𝐻𝑗 |𝑑𝑎𝑡𝑎) ∗ 𝑃𝑟(𝐻𝑗 )

Anggaplah probabilitas sebelumnya adalah 0,5 dan 0,5. Kemudian, probabilitas


posterior bahwa pria dalam potret tersebut adalah Thomas Bayes yang ditunjukkan
pada Tabel berikut.

Prior Likelihood Prior*Likelihood Posterior


Thomas Bayes 0.5 0.0138 0.0069 0.64
Bukan Thomas Bayes 0.5 0.0077 0.00385 0.36
Jumlah 1 0.01075 1

Penjelasannya:

• Baris 1 tabel adalah hipotesis Thomas Bayes, dan baris 2 adalah Bukan Thomas
Bayes hipotesa.
• Kolom 1 menyediakan prior, yang kita tetapkan pada 0,5 dan 0,5. Ingatlah
bahwa ini harus jumlahkan menjadi 1.
• Kolom 2 adalah kemungkinan bersama untuk mengamati dua informasi yang
kami amati di bawah setiap hipotesis:
o rambut palsu = 0
o skor kemiripan ≥ 55
• Kolom 3 mengalikan kemungkinan dengan waktu sebelumnya, yang
menghasilkan pembilang dari

Teorema Bayes untuk setiap hipotesis.

• Jumlah kolom 3 adalah penyebut Teorema Bayes (jumlah hasil kali dari yang
sebelumnya dikalikan dengan kemungkinan).

• Kolom 4 menghitung posterior untuk setiap hipotesis sebagai kolom


kemungkinan∗ sebelumnya dibagi penyebutnya. Perhatikan bahwa kedua posterior
berjumlah 1,0.

Jadi, untuk masukan untuk masalah fiktif ini, probabilitas posterior bahwa pria
dalam potret itu adalah Thomas Bayes adalah 0,64, dan probabilitas posteriornya
adalah itu adalah orang lain adalah 0,36. Dua garis bukti digunakan dalam Bayesian
ini analisis.

Grafik distribusi sebelum dan sesudah kami sekarang dapat ditunjukkan pada
Gambar berikut.
Sebagai analis, Anda perlu membuat argumen untuk membenarkannya perhitungan
kemungkinan bersama. Di sini, kami mengklaim bahwa dua set data kami
independen dan keduanya berkontribusi pada perhitungan kemungkinan.

Semakin banyak garis penalaran yang Anda miliki, semakin banyak informasi yang
Anda miliki dapat mempengaruhi perhitungan kemungkinan dan, pada akhirnya,
pada perbandingan Anda hipotesis. Misalnya, kita bisa bertanya tentang
penggunaan jas rok potret untuk periode waktu yang sama. Jika kita mencetak
pemakaian jas rok bersama dengan penggunaan wig dalam dataset 1, kita dapat
mengacaukan analisis karena mantel rok dan wig muncul untuk berjalan beriringan.
Selain itu, jika Anda memiliki kumpulan data yang sama sekali berbeda yang
disediakan informasi serupa sehubungan dengan kesamaan ayah-anak,
menambahkannya ke dalam kemungkinan campuran bisa mengeja masalah jika
mereka tidak independen.

Apakah ada asumsi dalam analisis ini?

Masalah ini dimaksudkan untuk membantu Anda memahami bahwa Bayes '
Teorema dapat dengan mudah menggabungkan berbagai sumber data, tetapi
masing-masing potongan informasi yang Anda anggap harus dipikirkan matang-
matang. Kami telah membuat banyak asumsi di sini, sebagai berilut:

• wig dan indeks kemiripan bersifat independen, dan


• kerabat Thomas Bayes bukan subjek potret.

Poin utama masalah ini adalah bahwa analisis Bayesian bisa sangat fleksibel.
Sebagai selama Anda dapat menghitung kemungkinan mengamati data di bawah
setiap hipotesis. Tapi, dengan asumsi itu bisa dilakukan, Anda bisa mengatur
hampir semua jenis masalah sebagai masalah inferensi Bayesian.

Melihat kembali potret itu siapa Barrett, pengembang dari metode kolumnar?

Kami sangat tertarik dengan pertanyaan apakah potret itu benar-benar dari Thomas
Bayes. George Barrett, yang mengusulkan metode kolumnar dalam perhitungan
anuitas (asuransi), hidup dari tahun 1752–1821. Seorang penulis Wikipedia
mencatat bahwa “Barrett adalah putra dari seorang petani di Wheeler Street, sebuah
dusun kecil di Surrey. Di usia dini, meski sudah bertunangan kerja sehari-hari, ia
membuat, tanpa bantuan, kemajuan yang cukup besar dalam matematika,
mengambil khusus minat pada kelas masalah yang berhubungan dengan lamanya
hidup manusia. Dia kemudian, selama periode dua puluh lima tahun (1786–1811),
bekerja dengan tekun di rangkaian karyanya yang luar biasa jaminan hidup dan
tabel anuitas yang dukungannya dia curahkan sebagian besar dari dirinya
pendapatan." O'Donnell sendiri mempertimbangkan dengan menyatakan, “Pada
tahun 1810, George Barrett datang ke Royal Society mode baru menghitung
Anuitas hidup. Masyarakat tua dan terhormat menolak untuk mempublikasikan
kontribusi tersebut, tidak diragukan lagi mengingat deduksinya terlalu reaksioner.
Namun terlepas dari cemberut dari Society, [Francis] Baily memberikan temuan
Barrett kepada dunia dalam lampiran karyanya yang sangat berharga pada Anuitas
dan segera mulai mempengaruhi pemikiran aktuaria yang sehat saat itu.”

Mengingat bahwa Thomas Bayes hidup sekitar tahun 1701 hingga 1761, sulit untuk
melihat bagaimana Bayes bisa memperbaiki metode Barrett. Ketika Bayes
meninggal, Barrett berusia 9 tahun! "Putaran. T. Bayes” mungkin telah
meningkatkan metode Barrett, tapi mungkin bukan Pendeta Thomas Bayes telah
kita kenal dan cintai.

Anda mungkin juga menyukai