Anda di halaman 1dari 28

ARTIFICIAL INTELLIGENCE

BAB 13 QUANTIFYING UNCERTAINTY

Disusun Oleh :
Slamet Aldian (1611050146)
Sri Devi Sopiawati (1611010096)
Syarif Maulana (1611058010P)
Togi Pangihutan Situmorang (1611050064)

INSTITUT INFORMATIKA DAN BISNIS


DARMAJAYA
2018
BAB 13 MENGUKUR KETIDAKPASTIAN

Dimana kita melihat bagaimana sebuah agen dapat mengurangi ketidakpastian dengan
keyakinan.

13.1 Bertindak dibawah ketidakpastian


Agen mungkin perlu menangani ketidakpastian, apakah karena pengamatan parsial
ketidaktentuan atau kombinasi keduanya. Seorang agen mungkin tidak pernah tahu dengan
pasti keadaan di tempat atau di mana ia akan berakhir setelah serangkaian tindakan. Kami
menemukan agen pemecahan masalah (Bab4) dan agen logis (Bab7 dan 11) yang dirancang
untuk menangani ketidakpastian dengan melacak keadaan keyakinan representasi dari
himpunan semua kemungkinan keadaan dunia yang mungkin terjadi dan menghasilkan
rencana kontinjensi yang menangani setiap kemungkinan yang mungkin terjadi. yang
sensornya dapat laporkan selama eksekusi. Meskipun banyak keutamaannya, namun,
pendekatan ini memiliki kelemahan yang signifikan ketika diambil secara harfiah sebagai
resep untuk membuat program agen :

 Ketika menafsirkan informasi sensor parsial, agen logis harus mempertimbangkan


setiap penjelasan logis yang mungkin untuk pengamatan, tidak peduli seberapa
kecil kemungkinannya. Hal ini mengarah pada representasi keyakinan-negara
besar dan kompleks yang mustahil.
 Rencana kontingen yang benar yang menangani setiap kemungkinan dapat tumbuh
secara sewenang-wenang besar dan harus mempertimbangkan kemungkinan tak
terduga.
 Terkadang tidak ada rencana yang dijamin untuk mencapai tujuan — namun agen
harus bertindak. Harus ada beberapa cara untuk membandingkan manfaat dari
rencana yang tidak dijamin. Anggaplah, misalnya, bahwa taksi otomatis! Otomatis
memiliki tujuan mengantarkan penumpang ke bandara tepat waktu. Agen itu
membentuk rencana, A90, yang melibatkan meninggalkan rumah 90 menit
sebelum penerbangan berangkat dan mengemudi dengan kecepatan yang wajar.
Meskipun bandara hanya berjarak sekitar 5 mil, seorang agen taksi yang logis tidak
akan dapat menyimpulkan dengan pasti bahwa "Rencana A90 akan membawa kita
ke bandara tepat waktu." Sebaliknya, mencapai kesimpulan yang lebih lemah
"Rencana A90 akan membawa kita ke bandara tepat waktu, selama mobil tidak
rusak atau kehabisan bensin, dan tidak mengalami kecelakaan, dan tidak ada
kecelakaan di jembatan, dan pesawat tidak pergi lebih awal, dan tidak ada meteorit
yang mengenai mobil, dan .... ”Tidak satu pun dari kondisi ini bisa terjadi.
Bagian 13.1. Bertindak di bawah Ketidakpastian 481

Disimpulkan pasti, sehingga keberhasilan rencana tidak dapat disimpulkan. Ini adalah
masalah kualifikasi (halaman 268), yang sejauh ini kita belum melihat solusi nyata.
Meskipun demikian, dalam beberapa hal, A90 sebenarnya adalah hal yang benar untuk
dilakukan. Apa yang kita maksud dengan ini? Seperti yang kita diskusikan pada Bab 2,
kami berarti bahwa dari semua rencana yang dapat dilaksanakan, A90 diharapkan untuk
memaksimalkan ukuran kinerja agen (di mana harapan relatif terhadap pengetahuan agen
tentang lingkungan). Ukuran kinerjanya termasuk pergi ke bandara tepat waktu untuk
penerbangan, menghindari penantian panjang yang tidak produktif di bandara, dan
menghindari tiket yang melaju cepat di sepanjang jalan. Pengetahuan agen tidak dapat
menjamin hasil apa pun untuk A90, tetapi dapat memberikan beberapa tingkat keyakinan
bahwa itu akan tercapai. Rencana lain, seperti A180, dapat meningkatkan keyakinan agen
bahwa itu akan sampai ke bandara tepat waktu, tetapi juga meningkatkan kemungkinan
menunggu lama. Ukuran kinerjanya termasuk pergi ke bandara tepat waktu untuk
penerbangan, menghindari penantian panjang yang tidak produktif di bandara, dan
menghindari tiket yang melaju cepat di sepanjang jalan.
Pengetahuan agen tidak dapat menjamin hasil apa pun untuk A90, tetapi dapat memberikan
beberapa tingkat keyakinan bahwa itu akan tercapai. Rencana lain, seperti A180, dapat
meningkatkan keyakinan agen bahwa itu akan sampai ke bandara tepat waktu, tetapi juga
meningkatkan kemungkinan menunggu lama. Hal yang benar untuk dilakukan —
keputusan rasional — oleh karena itu bergantung pada kepentingan relatif dari berbagai
tujuan dan kemungkinan bahwa, dan sejauh mana, mereka akan tercapai. Sisa dari bagian
ini mengasah ide-ide ini, dalam persiapan untuk pengembangan teori-teori umum dari
penalaran yang tidak pasti dan keputusan rasional yang kami sajikan dalam bab ini dan
selanjutnya.

13.1.1 Meringkas ketidakpastian Mari kita pertimbangkan contoh dari penalaran yang
tidak pasti: mendiagnosis sakit gigi pasien gigi. Diagnosis — baik untuk obat, perbaikan
mobil, atau apa pun — hampir selalu melibatkan ketidakpastian. Mari kita coba menulis
aturan untuk diagnosis gigi dengan menggunakan logika proposisional, sehingga kita
dapat melihat bagaimana pendekatan logis itu rusak. Pertimbangkan aturan sederhana
berikut ini:
Sakit gigi ⇒ Berlubang. Masalahnya adalah aturan ini salah. Tidak semua pasien dengan
sakit gigi memiliki gigi berlubang; beberapa dari mereka memiliki penyakit gusi, abses,
atau salah satu dari beberapa masalah lain:

Sakit gigi ⇒ Berlubang ∨ Masalah Gusi ∨ Bernanah ... Sayangnya, untuk membuat aturan
itu benar, kita harus menambahkan daftar masalah kemungkinan yang hampir tak
terbatas. Kita bisa mencoba mengubah aturan menjadi aturan kausal:

Berlubang ⇒ Sakit gigi. Tetapi aturan ini juga tidak benar; tidak semua lubang
menyebabkan rasa sakit. Satu-satunya cara untuk memperbaiki aturan adalah untuk
membuatnya secara logis lengkap: untuk menambah sisi kiri dengan semua kualifikasi
yang diperlukan untuk lubang menyebabkan sakit gigi. Mencoba menggunakan logika
untuk mengatasi domain seperti diagnosis medis gagal karena tiga alasan utama:
• Kemalasan: Terlalu banyak pekerjaan untuk membuat daftar lengkap anteseden atau
konsekuensi kemalasan yang diperlukan untuk memastikan aturan tanpa pengecualian
dan terlalu sulit untuk menggunakan aturan seperti itu.

• Ketidaktahuan teoritis: Ilmu kedokteran tidak memiliki teori yang lengkap untuk domain.
PENGERTIAN ETEMIK
• Ketidaktahuan Praktis: Bahkan jika kita tahu semua aturan, kita mungkin tidak yakin
tentang seorang pasien IGNORAN khusus PRAKTIS karena tidak semua tes yang
diperlukan telah atau dapat dijalankan. Hubungan antara sakit gigi dan gigi berlubang
bukanlah konsekuensi logis di kedua arah. Ini khas dari domain medis, serta sebagian besar
domain menghakimi lainnya: hukum, bisnis, desain, perbaikan mobil, berkebun, kencan,
dan juga. Pengetahuan Agen.

482 Bab 13. Menentukan Ketidakpastian

Paling-paling hanya dapat memberikan tingkat kepercayaan pada kalimat yang relevan.
Alat utama kami untuk DEFINIEF berurusan dengan derajat kepercayaan adalah teori
probabilitas. Dalam terminologi Bagian 8.1, TEORI PROYEKTIF komitmen ontologis
dari teori logika dan probabilitas adalah sama — bahwa dunia terdiri dari fakta-fakta yang
dilakukan atau tidak dipegang dalam kasus tertentu — tetapi komitmen epistemologisnya
berbeda: agen logis percaya satu sama lain. kalimat menjadi benar atau salah atau tidak
memiliki opini, sedangkan agen probabilistik mungkin memiliki derajat kepercayaan
numerik antara 0 (untuk kalimat yang pasti salah) dan 1 (tentu benar). Probabilitas
memberikan cara merangkum ketidakpastian yang datang dari kemalasan dan
ketidaktahuan kita, dengan demikian memecahkan masalah kualifikasi. Kita mungkin tidak
tahu pasti apa yang melanda pasien tertentu, tetapi kita percaya bahwa ada, katakanlah,
80% kemungkinan — yaitu, probabilitas 0,8 — bahwa pasien yang memiliki sakit gigi
memiliki rongga. Artinya, kami berharap bahwa dari semua situasi yang tidak dapat
dibedakan dari situasi saat ini sejauh pengetahuan kita, pasien akan memiliki rongga di
80% dari mereka. Keyakinan ini bisa berasal dari data statistik — 80% pasien sakit gigi
yang terlihat sejauh ini memiliki gigi berlubang — atau dari beberapa pengetahuan gigi
umum, atau dari kombinasi sumber bukti. Satu hal yang membingungkan adalah bahwa
pada saat diagnosis kami, tidak ada ketidakpastian di dunia nyata: pasien memiliki rongga
atau tidak. Jadi apa artinya mengatakan kemungkinan rongga adalah 0,8? Bukankah
seharusnya 0 atau 1? Jawabannya adalah bahwa pernyataan probabilitas dibuat berkenaan
dengan negara pengetahuan, bukan berkenaan dengan dunia nyata. Kami mengatakan
“Kemampuan menular yang pasien rawat inap, karena dia menderita sakit kepala, 0.8.” Jika
nanti kami mengetahui bahwa pasien memiliki riwayat penyakit gusi, kami dapat membuat
pernyataan yang berbeda: “Probabilitas bahwa pasien memiliki rongga, mengingat bahwa
dia memiliki sakit gigi dan riwayat penyakit gusi, adalah 0,4. ”Jika kita mengumpulkan
bukti konklusif lebih lanjut terhadap rongga, kita dapat mengatakan“ Probabilitas bahwa
pasien memiliki rongga, mengingat semua yang kita ketahui sekarang, hampir 0.
”Perhatikan bahwa pernyataan-pernyataan ini tidak saling bertentangan; masing-masing
merupakan pernyataan terpisah tentang negara pengetahuan yang berbeda.
13.1.2 Keputusan tidak pasti dan rasional

Pertimbangkan lagi rencana A90 untuk sampai ke bandara. Anggap saja memberi kita
97% peluang untuk menangkap penerbangan kita. Apakah ini berarti itu adalah pilihan
yang rasional? Belum tentu: mungkin ada rencana lain, seperti A180, dengan probabilitas
yang lebih tinggi. Jika penting untuk tidak ketinggalan penerbangan, maka ada baiknya
mempertaruhkan lebih lama menunggu di bandara. Bagaimana dengan A1440, rencana
yang melibatkan meninggalkan rumah 24 jam sebelumnya? Dalam sebagian besar keadaan,
ini bukan pilihan yang baik, karena meskipun hampir menjamin tiba di sana tepat waktu,
ini melibatkan penantian yang tak tertahankan — belum lagi diet makanan bandara yang
mungkin tidak menyenangkan. Untuk membuat pilihan semacam itu, seorang agen harus
terlebih dahulu memiliki preferensi antara hasil yang berbeda dari pos-PREFERENCE dari
berbagai rencana. Hasil adalah keadaan yang sepenuhnya ditentukan, termasuk faktor-
faktor seperti apakah agen tiba tepat waktu dan lamanya menunggu di bandara. Kami
menggunakan teori utilitas untuk mewakili dan alasan dengan preferensi. (Utilitas jangka
digunakan di sini dalam KEUNTUNGANNYA rasa "kualitas yang berguna," bukan dalam
arti perusahaan listrik atau pekerjaan air.) Teori utilitas mengatakan bahwa setiap negara
memiliki tingkat kegunaan, atau utilitas, untuk agen dan bahwa agen akan lebih memilih
negara dengan utilitas yang lebih tinggi.

Bagian 13.2. Notasi Probabilitas Dasar 483

Utilitas negara relatif terhadap agen. Sebagai contoh, kegunaan sebuah negara di mana
Whitehascheckmated Blackinagamehitammemiliki kualitas tinggi untuk memainkan peran
Putih, tetapi rendah untuk bermain Black. Tapi tidak benar-benar dibatasi oleh skor 1, 1/2,
dan 0 yang ditentukan oleh aturan catur turnamen — beberapa pemain (termasuk penulis)
mungkin senang dengan hasil imbang melawan juara dunia, sedangkan pemain lain
(termasuk mantan juara dunia) mungkin tidak. Tidak ada akuntansi untuk selera atau
preferensi: Anda mungkin berpikir bahwa seorang agen yang lebih memilih jalape˜no es
krim gelembung-permen ke chip cokelat cokelat aneh atau bahkan dipicu, tetapi tidak boleh
mengatakan agennya bersifat israsional. Fungsi autilitas dapat ditemukan untuk berbagai
pengaturan - aneh, aneh, atau buruk. Notethatutilities dapat mencari altruisme, hanya
dengan memasukkan kesejahteraan orang lain sebagai salah satu faktor. Preferensi, seperti
yang diungkapkan oleh utilitas, dikombinasikan dengan probabilitas dalam teori umum
keputusan rasional yang disebut teori keputusan: TEORI KEPUTUSAN.
Teori keputusan = teori probabilitas + teori utilitas.

Ide dasar dari teori keputusan adalah bahwa agen adalah rasional jika dan hanya jika ia
memilih tindakan yang menghasilkan utilitas tertinggi yang diharapkan, dirata-ratakan atas
semua hasil yang mungkin dari tindakan tersebut. Ini disebut prinsip utilitas maksimum
yang diharapkan (MEU). Perhatikan bahwa UTAMA UTAMA "diharapkan" mungkin
tampak seperti istilah hipotetis yang samar-samar, tetapi karena digunakan di sini ia
memiliki arti yang tepat: itu berarti "rata-rata," atau "mean statistik" dari hasil, dibobot oleh
probabilitas hasil. Kami melihat prinsip ini beraksi di Bab 5 ketika kami menyentuh secara
singkat keputusan optimal dalam backgammon; sebenarnya merupakan prinsip yang
sepenuhnya umum. Gambar 13.1 membuat sketsa struktur agen yang menggunakan teori
keputusan untuk memilih tindakan. Agen itu identik, pada tingkat abstrak, kepada agen-
agen yang dijelaskan dalam Bab 4 dan 7 yang mempertahankan sebuah negara kepercayaan
yang mencerminkan sejarah persepsi sampai saat ini. Perbedaan utamanya adalah bahwa
negara keyakinan agen keputusan itu tidak hanya mewakili kemungkinan untuk negara-
negara dunia tetapi juga probabilitasnya. Mengingat keadaan keyakinan, agen dapat
membuat prediksi probabilistik dari hasil tindakan dan karenanya memilih tindakan dengan
utilitas tertinggi yang diharapkan. Bab ini dan yang berikutnya berkonsentrasi pada tugas
mewakili dan menghitung dengan informasi probabilistik secara umum. Bab 15 membahas
metode-metode untuk tugas-tugas khusus mewakili dan memperbarui keadaan keyakinan
dari waktu ke waktu dan memprediksi lingkungan. Bab 16 memungkinkan teori untuk
lebih, dan Bab 17 mengembangkan algoritma untuk lingkungan yang tidak pasti.

mencakup teori utilitas secara lebih mendalam, dan Bab 17 mengembangkan algoritma
untuk merencanakan urutan tindakan di lingkungan yang tidak pasti.

13.2 NOTA PROBABILITAS DASAR

Untuk agen kami untuk mewakili dan menggunakan informasi probabilistik, kami
membutuhkan bahasa formal. Bahasa teori probabilitas secara tradisional bersifat informal,
ditulis oleh matematikawan manusia ke matematikawan manusia lainnya. Lampiran A
mencakup pengenalan standar untuk teori probabilitas dasar; di sini, kami mengambil
pendekatan yang lebih sesuai dengan kebutuhan AI dan lebih konsisten dengan konsep
logika formal.

484 Bab 13. Menentukan Ketidakpastian

Fungsi DT-AGEN (persepta) mengembalikan suatu tindakan yang terus-menerus:


negara keyakinan, keyakinan probabilistik tentang keadaan tindakan dunia saat ini,
tindakan agen
perbarui status keyakinan berdasarkan tindakan dan persepting menghitung probabilitas
hasil untuk tindakan, deskripsi tindakan dan negara keyakinan saat ini pilih tindakan
dengan harapan yang paling tinggi diberikanprobabilitas hasil dan tindakan pengembalian
informasi utilitas.

13.2.1 Probabilitas apa yang terjadi

Seperti pernyataan logis, pernyataan probabilistik adalah tentang kemungkinan


dunia. Sementara pernyataan logis mengatakan dunia mana yang mungkin dikesampingkan
secara tegas (semua yang di dalamnya pernyataan itu salah), pernyataan probabilistik
berbicara tentang kemungkinan berbagai dunia. Dalam teori probabilitas, himpunan semua
kemungkinan dunia disebut ruang sampel. Dunia yang mungkin adalah SPACE
SAMBUNG saling eksklusif dan lengkap — dua dunia yang mungkin tidak bisa menjadi
kasusnya, dan satu dunia yang mungkin harus menjadi kasusnya. Sebagai contoh, jika kita
akan melempar dua dadu (yang dapat dibedakan), ada 36 kemungkinan dunia untuk
dipertimbangkan: (1,1), (1,2), ..., (6,6). Huruf Yunani Ω (huruf besar omega) digunakan
untuk merujuk ke ruang sampel, dan ω (omega huruf kecil) mengacu pada elemen ruang,
yaitu, dunia tertentu yang mungkin. Suatu model probabilitas yang sepenuhnya ditentukan
mengaitkan probabilitas numerik P (ω) dengan masing-masing kemungkinan dunia
PROBABILITY MODEL. Aksioma dasar teori probabilitas mengatakan bahwa setiap
kemungkinan dunia memiliki probabilitas antara 0 dan 1 dan bahwa probabilitas total dari
sekumpulan kemungkinan dunia adalah 1: 0 ≤ P (ω) ≤ 1 untuk setiap ω dan
ω∈Ω
P(ω)=1. (13.1)
1 Untuk saat ini, kita menganggap satu set dunia yang terpisah dan dapat dihitung.
Perawatan yang tepat dari kasus berkelanjutan membawa pada komplikasi tertentu yang
kurang relevan untuk sebagian besar tujuan dalam AI.
Bagian 13.2. Notasi Kemungkinan Dasar 485
didefinisikan sebagai jumlah dari probabilitas dunia di mana ia memegang: Untuk proposisi
apa pun φ, P (φ) =
ω∈φ
P (ω). (13.2)
Sebagai contoh, ketika melempar dadu yang adil, kita memiliki P (Total = 11) = P ((5,6))
+ P ((6,5)) = 1/36 + 1/36 = 1/18. Perhatikan bahwa teori probabilitas tidak memerlukan
pengetahuan lengkap tentang probabilitas setiap dunia yang mungkin. Sebagai contoh, jika
kita percaya dadu berkonspirasi untuk menghasilkan angka yang sama, wemight
menyatakan bahwa P (doubles) = 1/4 tanpa mengetahui apakah dadu lebih menyukai dobel
6 hingga dobel 2. Sama seperti dengan pernyataan logis, pernyataan ini membatasi
probabilitas yang mendasarinya. model tanpa sepenuhnya menentukannya. Probabilitas
seperti P (Total = 11) dan P (ganda) disebut probabilitas PROBABILITAS tanpa syarat
atau priorunonditusional (dan kadang-kadang hanya "prior" untuk pendek); mereka
mengacu pada tingkat kepercayaan dalam PROBABILITAS propo-PRIOR saat tidak ada
informasi lain. Namun, sebagian besar waktu, kami memiliki beberapa informasi, biasanya
disebut bukti, yang telah terungkap. Misalnya, kematian EVIDENCE pertama mungkin
sudah menunjukkan angka 5 dan kita menunggu dengan napas tertahan untuk yang satu
lagi berhenti berputar.

Dalam hal ini, kita tidak tertarik pada probabilitas ganda bergulir tanpa syarat, tetapi
probabilitas kondisional atau posterior (atau hanya "posterior" untuk jangka pendek) dari
bergulir PROBABILITAS POSISIIOR PROBABILITAS KAMBARAN ganda
menggandakan bahwa firstprofit5. Prokabilitas ini ditulis P (doubles | Die1 = 5), di mana
"|" diucapkan "diberikan." Demikian pula, jika saya pergi ke dokter gigi untuk pemeriksaan
rutin, kemungkinan P (rongga) = 0 .2 mungkin menarik ; tetapi jika saya pergi ke dokter
gigi karena saya sakit gigi, itu adalah P (rongga | sakit gigi) = 0,6 yang penting. Perhatikan
bahwa presedensi dari "|" adalah sedemikian rupa sehingga setiap ekspresi dari bentuk P
(... | ...) selalu berarti P ((...) | (...)). Penting untuk memahami bahwa P (rongga) = 0, 2 masih
valid setelah sakit gigi diamati; itu tidak terlalu berguna. Ketika membuat keputusan,
seorang agen perlu mengkondisikan semua bukti yang telah diamati. Penting juga untuk
memahami perbedaan antara pengkondisian dan implikasi logis. Pernyataan bahwa P
(rongga | sakit gigi) = 0 .6 tidak berarti "Setiap kali sakit gigi adalah benar, menyimpulkan
bahwa rongga adalah benar dengan probabilitas 0,6" tetapi itu berarti "Setiap kali sakit gigi
adalah benar dan kami tidak memiliki informasi lebih lanjut, menyimpulkan bahwa rongga
adalah benar dengan probabilitas 0,6. ”Kondisi ekstra penting; misalnya, jika kami
memiliki informasi lebih lanjut bahwa dokter gigi tidak menemukan rongga, kami pasti
tidak ingin menyimpulkan bahwa rongga benar dengan probabilitas 0,6; sebagai gantinya
kita perlu menggunakan P (rongga | sakit gigi ∧¬kavitas) = 0. Secara matematis berbicara,
probabilitas bersyarat didefinisikan dalam hal probabilitas tanpa syarat sebagai berikut:

untuk setiap proposisi a dan b, kita memiliki

P (a | b) =
P (a ∧ b) P (b)
, (13.3)
yang berlaku setiap kali P (b)> 0. Misalnya,
P (doubles | Die1 = 5) =
P (ganda ∧ Die1 = 5) P (Die1 = 5)

Definisi itu masuk akal jika Anda ingat bahwa mengamati b mengesampingkan semua
kemungkinan dunia di mana b salah, meninggalkan seperangkat yang probabilitas totalnya
hanyalah P (b). Dalam set itu, a-worlds memuaskan ∧ b dan merupakan pecahan P (a ∧ b)
/ P (b).

486 Bab 13. Menentukan Ketidakpastian

Definisi probabilitas bersyarat, Persamaan (13.3), dapat ditulis dalam bentuk yang berbeda
yang disebut aturan produk: PRODUCTRULE
P (a ∧ b) = P (a | b) P (b), Aturan produk mungkin lebih mudah untuk diingat: ini berasal
dari fakta bahwa, untuk dan b benar, kita perlu b menjadi benar, dan kita juga perlu
diberikan yang benar b.

13.2.2 Bahasa proposisi dalam asersi probabilitas

Dalam bab ini dan yang berikutnya, proposisi yang menjelaskan serangkaian kemungkinan
dunia ditulis dalam a notasi yang menggabungkan elemen logika proposisional dan notasi
kepuasan kendala. Di terminologi Bagian 2.4.7, ini adalah representasi yang
diperhitungkan, di mana suatu dunia yang mungkin diwakili oleh satu set pasangan variabel
/ nilai.

Variabel dalam teori probabilitas disebut variabel acak dan nama mereka dimulai dengan
Huruf besar. Jadi, dalam contoh dadu, Total dan Die1 adalah variabel acak. Setiap Variabel
acak DOMAIN memiliki domain — kumpulan nilai yang mungkin dapat dilakukan.
Domain dari Total untuk dua dadu adalah himpunan {2, ..., 12} dan domain Die1 adalah
{1, ..., 6}. A Boolean variabel acak memiliki domain {true, false} (perhatikan bahwa nilai
selalu huruf kecil); untuk Misalnya, proposisi yang digandakan digulir dapat ditulis sebagai
Doubles = true. Dengan perjanjian, proposisi dari bentuk A = benar disingkat hanya
sebagai, sedangkan A = salah adalah disingkat ¬a. (Penggunaan ganda, rongga, dan sakit
gigi di bagian sebelumnya adalah singkatan semacam ini.) Seperti dalam CSP, domain
dapat berupa token sewenang-wenang; kita mungkin pilih domain dari Umur menjadi
{remaja, remaja, dewasa} dan domain Cuaca mungkin menjadi {cerah, hujan, berawan,
salju}. Bila tidak ada ambiguitas, biasanya menggunakan nilai dengan sendirinya untuk
berdiri untuk proposisi bahwa variabel tertentu memiliki nilai itu; dengan demikian, bisa
cerah berdiri untuk Cuaca = cerah.

Contoh sebelumnya semua memiliki domain terbatas. Variabel dapat memiliki domain tak
terbatas,
juga — apakah diskrit (seperti bilangan bulat) atau berkelanjutan (seperti real). Untuk
variabel apa pun dengan
memerintahkan domain, ketidaksetaraan juga diizinkan, seperti
NumberOfAtomsInUniverse ≥ 1070.
Akhirnya, kita dapat menggabungkan jenis proposisi dasar ini (termasuk yang disingkat
formulir untuk variabel Boolean) dengan menggunakan penghubung logika proposisional.
Untuk Sebagai contoh, kita dapat menyatakan "Probabilitas bahwa pasien memiliki rongga,
mengingat bahwa dia adalah seorang
remaja tanpa sakit gigi, adalah 0,1 "sebagai berikut:
P(cavity | ¬toothache ∧ teen)=0.1 .
Kadang-kadang kita ingin berbicara tentang probabilitas dari semua kemungkinan nilai
acak
variabel. Kami bisa menulis:
P (Cuaca = cerah) = 0,6
P (Cuaca = hujan) = 0,1
P (Cuaca = mendung) = 0,29
P (Cuaca = salju) = 0,01,
tetapi sebagai singkatan yang akan kami izinkan
P (Cuaca) = 0,6, 0,1, 0,29, 0,01,
di mana P tebal menunjukkan bahwa hasilnya adalah vektor angka, dan di mana kita
mengasumsikan yang telah ditentukan memesan cerah, hujan, berawan, salju di domain
Cuaca. Kami mengatakan bahwa Pernyataan P mendefinisikan distribusi probabilitas untuk
variabel acak Weather. The P a- PR PROBABILITAS distribution juga digunakan untuk
distribusi bersyarat: P (X | Y) memberikan nilai P (X = xi | Y = yj) untuk setiap
kemungkinan i, j pair. Untuk variabel kontinu, tidak mungkin untuk menulis seluruh
distribusi sebagai vektor, karena ada banyak nilai tak terbatas. Sebaliknya, kita dapat
menentukan probabilitas yang acak variabel mengambil beberapa nilai x sebagai fungsi
parameter dari x. Misalnya, kalimatnya P(NoonTemp = x) = Uniform[18C,26C](x)
menyatakan keyakinan bahwa suhu pada siang hari didistribusikan secara merata antara 18
dan 26 derajat Celsius. Kami menyebutnya fungsi kepadatan probabilitas.

Fungsi kepadatan kemungkinan (kadang-kadang disebut pdf) berbeda dalam arti dari
diskrit distribusi. Mengatakan bahwa kepadatan probabilitas seragam dari 18C ke 26C
berarti itu ada kemungkinan 100% bahwa suhu akan jatuh di suatu tempat di wilayah 8C-
lebar dan 50% kemungkinan akan jatuh di wilayah seluas 4C, dan seterusnya. Kami
menulis probabilitas kepadatan untuk variabel acak kontinyu X pada nilai x sebagai P (X
= x) atau hanya P (x); yang intuitif definisi P (x) adalah probabilitas bahwa X jatuh dalam
permulaan wilayah yang semaunya kecil pada x, dibagi dengan lebar wilayah:
P(x) = limdx→0 P(x ≤ X ≤ x + dx)/dx .
Untuk NoonTemp yang kami miliki

P(NoonTemp = x) = Uniform[18C,26C](x) = 1 8C if 18C ≤ x ≤ 26C 0 otherwise ,

di mana C adalah singkatan dari celcius (bukan untuk konstanta). Di P (NoonTemp =


20.18C) = 1 8C, perhatikan itu 1 8C bukan probabilitas, itu adalah kepadatan probabilitas.
Probabilitas bahwa NoonTemp adalah tepatnya 20.18C adalah nol, karena 20.18C adalah
wilayah dengan lebar 0. Beberapa penulis menggunakan yang berbeda simbol untuk
distribusi diskrit dan fungsi kepadatan; kami menggunakan P dalam kedua kasus, karena
kebingungan jarang muncul dan persamaan biasanya identik. Perhatikan bahwa
probabilitas tidak memiliki unit angka, sedangkan fungsi kepadatan diukur dengan satuan,
dalam hal ini derajat timbal balik.

Selain distribusi pada variabel tunggal, kita perlu notasi untuk distribusi beberapa variabel.
Koma digunakan untuk ini. Misalnya, P (Cuaca, Rongga) menunjukkan probabilitas dari
semua kombinasi nilai-nilai Cuaca dan Rongga. Ini adalah 4 × 2 tabel probabilitas yang
disebut distribusi probabilitas gabungan Cuaca dan Rongga. Kami BERGABUNGLAH
PROBABILITAS DISTRIBUSI bisa juga mencampur variabel dengan dan tanpa nilai; P
(cerah, Rongga) akan menjadi dua elemen vektor memberikan probabilitas dari hari yang
cerah dengan rongga dan hari yang cerah tanpa rongga. Notasi P membuat ekspresi tertentu
jauh lebih ringkas daripada yang seharusnya. Misalnya, aturan produk untuk semua
kemungkinan nilai Cuaca dan Rongga dapat ditulis sebagai persamaan tunggal:

P(Weather , Cavity) = P(Weather | Cavity)P(Cavity) ,

bukannya sebagai persamaan 4 × 2 = 8 ini (menggunakan singkatan W dan C):

P(W = sunny ∧ C = true) = P(W = sunny|C = true) P(C = true)


P(W = rain ∧ C = true) = P(W = rain|C = true) P(C = true)
P(W = cloudy ∧ C = true) = P(W = cloudy|C = true) P(C = true)
P(W = snow ∧ C = true) = P(W = snow|C = true) P(C = true)
P(W = sunny ∧ C = false) = P(W = sunny|C = false) P(C = false)
P(W = rain ∧ C = false) = P(W = rain|C = false) P(C = false)
P(W = cloudy ∧ C = false) = P(W = cloudy|C = false) P(C = false)
P(W = snow ∧ C = false) = P(W = snow|C = false) P(C = false) .

Sebagai kasus merosot, P (cerah, rongga) tidak memiliki variabel dan dengan demikian
adalah vektor satu elemen itu adalah kemungkinan hari yang cerah dengan rongga, yang
juga bisa ditulis sebagai P (cerah, rongga) atau P (rongga cerah). Kami kadang-kadang akan
menggunakan notasi P untuk mendapatkan hasil tentang nilai-nilai P individu, dan ketika
kita mengatakan "P (cerah) = 0,6" itu benar-benar singkatan untuk "P (cerah) adalah satu-
elemen vektor 0,6, yang berarti P (cerah) = 0,6." Sekarang kami telah mendefinisikan
sintaks untuk proposisi dan pernyataan probabilitas dan kami punya diberikan bagian dari
semantik: Persamaan (13.2) mendefinisikan probabilitas proposisi sebagai penjumlahan
dari probabilitas dunia di mana ia memegang. Untuk menyelesaikan semantik, kita perlu
mengatakan apa yang dunia dan bagaimana menentukan apakah proposisi berlaku di dunia.
Kami pinjam bagian ini langsung dari semantik logika proposisional, sebagai berikut.
Dunia yang mungkin adalah didefinisikan sebagai penugasan nilai untuk semua variabel
acak yang sedang dipertimbangkan. Ini mudah untuk melihat bahwa definisi ini memenuhi
persyaratan dasar bahwa dunia yang mungkin menjadi satu sama lain eksklusif dan lengkap
(Latihan 13,5). Misalnya, jika variabel acak adalah Rongga, Sakit gigi, dan Cuaca, maka
ada 2 × 2 × 4 = 16 kemungkinan dunia. Selanjutnya, kebenaran dari setiap proposisi yang
diberikan, tidak peduli seberapa kompleksnya, dapat ditentukan dengan mudah dalam hal
itu dunia menggunakan definisi kebenaran rekursif yang sama seperti untuk rumus dalam
logika proposisional.

Dari definisi sebelumnya dari dunia yang mungkin, itu mengikuti bahwa model
probabilitas adalah sepenuhnya ditentukan oleh distribusi bersama untuk semua variabel
acak — yang disebut distribusi probabilitas gabungan penuh. Misalnya, jika variabelnya
adalah Cavity, Toothache, FULL JOINT KEMUNGKINAN DISTRIBUSI dan Cuaca,
maka distribusi gabungan penuh diberikan oleh P (Cavity, Toothache, Weather). Distribusi
bersama ini dapat direpresentasikan sebagai tabel 2 × 2 × 4 dengan 16 entri. Karena setiap
probabilitas proposisi adalah jumlah dari kemungkinan dunia, distribusi gabungan penuh
sudah cukup, dalam prinsip, untuk menghitung probabilitas setiap proposisi.
13.2.3 Aksioma kemungkinan dan kewajarannya

Aksioma dasar probabilitas (Persamaan (13.1) dan (13.2)) menyiratkan hubungan tertentu
di antara tingkat keyakinan yang dapat diberikan ke proposisi yang terkait secara logis.
Sebagai contoh, kita dapat memperoleh hubungan akrab antara probabilitas proposisi dan
kemungkinan negasinya:

P(¬a) = ω∈¬a P(ω) by Equation (13.2) = ω∈¬a P(ω) + ω∈a P(ω) − ω∈a P(ω) = ω∈Ω P(ω)
− ω∈a P(ω) grouping the first two terms = 1 − P(a) by (13.1) and (13.2).

Kita juga bisa mendapatkan rumus yang terkenal untuk kemungkinan adanya disjungsi,
kadang-kadang disebut prinsip inklusi-eksklusi:
P(a ∨ b) = P(a) + P(b) − P(a ∧ b) .

Aturan ini mudah diingat dengan mencatat bahwa kasus-kasus di mana suatu pegangan,
bersama dengan kasus-kasus di mana b memegang, tentu saja mencakup semua kasus di
mana ∨ b memegang; tapi menjumlahkan dua set kasus menghitung persimpangan mereka
dua kali, jadi kita perlu mengurangi P (a ∧ b). Buktinya dibiarkan sebagai sebuah latihan
(Latihan 13.6).

Persamaan (13.1) dan (13.4) sering disebut aksioma Kolmogorov untuk menghormati Rus-
KOLMOGOROV'S AXIOMS matematikawan sian Andrei Kolmogorov, yang
menunjukkan bagaimana membangun sisa probabilitas teori dari landasan sederhana ini
dan bagaimana menangani kesulitan yang disebabkan oleh kontinyu variables.

2 Sementara Persamaan (13.2) memiliki rasa definisi, Persamaan (13.4) mengungkapkan


bahwa aksioma benar-benar membatasi tingkat kepercayaan yang dimiliki agen terkait
dengan hal-hal yang berhubungan secara logisproposisi. Ini analog dengan fakta bahwa
agen logika tidak bisa secara bersamaan percaya A, B, dan ¬ (A ∧ B), karena tidak mungkin
ada dunia di mana ketiganya benar. Namun, dengan probabilitas, pernyataan tidak merujuk
langsung ke dunia, tetapi ke agen itu sendiri keadaan pengetahuan. Kalau begitu, mengapa
agen tidak bisa memegang keyakinan berikut (meskipun demikian
mereka melanggar aksioma Kolmogorov)?

P(a)=0.4 P(a ∧ b)=0.0 P(b)=0.3 P(a ∨ b)=0.8 .

Pertanyaan semacam ini telah menjadi pokok perdebatan selama puluhan tahun antara
mereka yang menganjurkan penggunaan probabilitas sebagai satu-satunya bentuk yang sah
untuk derajat kepercayaan dan merekayang mengadvokasi pendekatan alternatif.
Satu argumen untuk aksioma probabilitas, pertama kali dinyatakan pada tahun 1931 oleh
Bruno de Finetti (dan diterjemahkan ke dalam bahasa Inggris dalam de Finetti (1993)),
adalah sebagai berikut: Jika seorang agen memiliki beberapa derajat percaya pada proposisi
a, maka agen harus dapat menyatakan peluang di mana itu acuh tak acuh bertaruh untuk
atau melawan.

3 Anggap saja sebagai permainan antara dua agen: Agen 1 menyatakan, “saya
tingkat kepercayaan dalam acara a adalah 0,4. ”Agen 2 kemudian bebas untuk memilih
apakah akan bertaruh untuk atau
melawan taruhan yang konsisten dengan tingkat kepercayaan yang dinyatakan. Yaitu,
Agen 2 bisa pilih untuk menerima taruhan Agen 1 bahwa suatu akan terjadi, menawarkan
$ 6 terhadap Agen 1 $ 4. Atau Agen
2 dapat menerima taruhan Agen 1 bahwa ¬a akan terjadi, menawarkan $ 4 terhadap Agen
1 sebesar $ 6. Lalu kita amati hasil dari, dan siapa pun yang benar mengumpulkan uang.
Jika tingkat agennya Keyakinan tidak secara akurat mencerminkan dunia, maka Anda akan
berharap bahwa itu akan cenderung kehilangan uang dalam jangka panjang kepada agen
lawan yang keyakinannya lebih akurat mencerminkan negara
di dunia.

Tetapi de Finetti membuktikan sesuatu yang jauh lebih kuat: Jika Agen 1 menyatakan
seperangkat derajat keyakinan yang melanggar aksioma teori probabilitas maka ada
kombinasi taruhan oleh Agen 2 yang menjamin bahwa Agen 1 akan kehilangan uang setiap
saat. Misalnya, anggap itu Agen 1 memiliki seperangkat derajat kepercayaan dari
Persamaan (13.5). Gambar 13.2 menunjukkan bahwa jika Agen 2 Kesulitan termasuk set
Vitali, subset yang didefinisikan dengan baik dari interval [0, 1] tanpa ukuran yang
terdefinisi dengan baik.
3 Orang mungkin berpendapat bahwa preferensi agen untuk saldo bank yang berbeda
sedemikian rupa sehingga kemungkinan kehilangan $ 1 tidak diimbangi oleh kemungkinan
yang sama untuk memenangkan $ 1. Salah satu respon yang mungkin adalah membuat
jumlah taruhan cukup kecil untuk menghindari masalah ini. Analisis Savage (1954)
menghindari masalah sama sekali.

2 memilih untuk bertaruh $ 4 pada, $ 3 pada b, dan $ 2 pada ¬ (a ∨ b), maka Agen 1 selalu
kehilangan uang, terlepas dari hasil untuk a dan b. Teorema De Finetti menyiratkan bahwa
tidak ada agen rasional dapat memiliki keyakinan yang melanggar aksioma probabilitas.
Satu keberatan umum terhadap teorema de Finetti adalah bahwa permainan taruhan ini agak
dibuat-buat.

Misalnya, bagaimana jika seseorang menolak untuk bertaruh? Apakah itu mengakhiri
argumen? Jawabannya adalah bahwa permainan taruhan adalah model abstrak untuk situasi
pengambilan keputusan di mana setiap agen tidak terhindarkan terlibat setiap saat. Setiap
tindakan (termasuk tidak bertindak) adalah sejenis taruhan, dan setiap hasil dapat dilihat
sebagai hasil dari taruhan. Menolak untuk bertaruh sama seperti menolak
untuk memungkinkan waktu berlalu.

Argumen filosofis kuat lainnya telah diajukan untuk penggunaan probabilitas, terutama
dari Cox (1946), Carnap (1950), dan Jaynes (2003). Mereka masing-masing membangun
sebuah mengatur aksioma untuk penalaran dengan derajat keyakinan: tidak ada kontradiksi,
korespondensi dengan logika biasa (misalnya, jika keyakinan dalam A meningkat, maka
kepercayaan pada ¬A harus turun), dan sebagainya di. Satu-satunya aksioma kontroversial
adalah bahwa derajat kepercayaan harus berupa angka, atau setidaknya bertindak seperti
angka-angka di dalamnya mereka harus transitif (jika keyakinan dalam A lebih besar
daripada keyakinan dalam B, yang mana lebih besar dari kepercayaan pada C, maka
kepercayaan pada A harus lebih besar dari C) dan sebanding (keyakinan di A harus sama
dengan, lebih besar dari, atau kurang dari keyakinan dalam B). Itu kemudian dapat
dibuktikan itu probabilitas adalah satu-satunya pendekatan yang memenuhi aksioma-
aksioma ini. Dunia menjadi seperti itu, bagaimanapun, demonstrasi praktis kadang-kadang
berbicara lebih lantang daripada bukti. Keberhasilan sistem penalaran berdasarkan teori
probabilitas telah jauh lebih efektif dalam melakukan konversi. Kami sekarang melihat
bagaimana aksioma dapat dikerahkan membuat kesimpulan.
13.3 INFERENSI MENGGUNAKAN DISTRIBUSI PENUH SENDIRI

Pada bagian ini kami menjelaskan metode sederhana untuk inferensi probabilistik yaitu,
INFERENSI compu-PROBABILISTIC tasi probabilitas posterior untuk proposisi kueri
yang diberikan bukti yang diamati. Kami menggunakan fulljointdistribution sebagai “basis
pengetahuan” darimana pertanyaan-pertanyaan yang diajukan dapat dihasilkan. Sepanjang
jalan kami juga memperkenalkan beberapa teknik yang berguna untuk memanipulasi
persamaan yang melibatkan probabilitas.

Bagian 13.3. Kesimpulan Menggunakan Distribusi Bersama Penuh 491

DI MANA PROBABILITAS DATANG?

Perdebatan tentang sumber dan status angka probabilitas sudah lama sekali.
Posisi frequentist adalah bahwa angka-angka dapat datang hanya dari eksperimen: jika
kami menguji 100 orang dan menemukan bahwa 10 dari mereka memiliki lubang, maka
kita dapat mengatakan itu probabilitas rongga kira-kira 0,1. Dalam pandangan ini,
pernyataan "itu probabilitas dari rongga adalah 0,1 "berarti 0,1 adalah fraksi yang akan
diamati dalam batas tak terbatas banyak sampel. Dari sampel yang terbatas, kita bisa
memperkirakan fraksi yang sebenarnya dan juga menghitung seberapa akurat perkiraan
kami.

Pandangan objektivis adalah bahwa probabilitas adalah aspek nyata dari alam
semesta kecenderungan benda-benda untuk berperilaku dengan cara-cara tertentu daripada
hanya mendeskripsikan tingkat keyakinan pengamat. Misalnya, fakta bahwa koin yang adil
datang kepala dengan probabilitas 0,5 adalah kecenderungan dari koin itu sendiri. Dalam
pandangan ini, pengukuran frekuensinya adalah upaya untuk mengamati kecenderungan
ini. Sebagian besar fisikawan setuju bahwa fenomena kuantum secara obyektif
probabilistik, tetapi ketidakpastian di skala makroskopik - misalnya, dalam melempar koin
- biasanya muncul dari ketidaktahuan awal kondisi dan tampaknya tidak konsisten dengan
pandangan kecenderungan. Pandangan subjektivisis menggambarkan probabilitas sebagai
cara mengkarakterisasi suatu keyakinan agen, daripada memiliki signifikansi fisik
eksternal. Pandangan subjektif Bayesian memungkinkan adanya asumsi yang konsisten
tentang probabilitas sebelumnya proposisi, tetapi kemudian menuntut pembaruan Bayesian
yang tepat saat bukti datang. Pada akhirnya, bahkan posisi frequentist yang ketat
melibatkan analisis subjektif menjadi penyebab masalah kelas referensi: dalam mencoba
untuk menentukan probabilitas hasil dari eksperimen tertentu, frequentist harus
menempatkannya dalam kelas referensi Eksperimen “serupa” dengan frekuensi hasil yang
diketahui. I. J. Good (1983, h. 27) menulis, “setiap peristiwa dalam kehidupan itu unik, dan
setiap probabilitas kehidupan nyata yang kita anggap penting dalam praktik adalah
peristiwa yang belum pernah terjadi sebelumnya.” Misalnya, diberikan pasien tertentu,
seorang frequentist yang ingin memperkirakan probabilitas a rongga akan
mempertimbangkan kelas referensi pasien lain yang serupa dalam hal penting cara usia,
gejala, diet dan lihat berapa proporsi mereka memiliki rongga. Jika itu dokter gigi
mempertimbangkan segala hal yang diketahui tentang pasien berat ke yang terdekat gram,
warna rambut, nama gadis ibu maka kelas referensi menjadi kosong. Ini telah menjadi
masalah yang menjengkelkan dalam filsafat sains.

Prinsip ketidakpedulian dikaitkan dengan Laplace (1816) menyatakan bahwa proposisi


yang secara sintaksis "simetris" sehubungan dengan bukti harus diberikan probabilitas yang
sama. Berbagai perbaikan telah diajukan, mencapai puncaknya dalam upaya Carnap dan
lainnya untuk mengembangkan logika induktif yang ketat, dapat menghitung probabilitas
yang benar untuk setiap proposisi dari setiap koleksi observasi. Saat ini, diyakini bahwa
tidak ada logika induktif yang unik; agak, logika semacam itu bersandar pada distribusi
probabilitas awal yang efeknya berkurang karena lebih banyak observasi yang
dikumpulkan.

Kita mulai dengan contoh sederhana: domain yang terdiri dari hanya tiga variabel Boolean
Sakit gigi, Rongga, dan Tangkapan (probe baja jahat dokter gigi menangkap di gigi saya).
Penuh distribusi bersama adalah tabel 2 × 2 × 2 seperti yang ditunjukkan pada

Perhatikan bahwa probabilitas dalam jumlah distribusi bersama ke 1, seperti yang


dipersyaratkan oleh aksioma-aksioma probabilitas. Perhatikan juga bahwa Persamaan
(13.2) memberi kita cara langsung untuk menghitung probabilitas proposisi apa pun,
sederhana atau rumit: cukup identifikasi kemungkinan dunia tersebut di mana proposisi itu
benar dan menambahkan probabilitasnya. Misalnya, ada enam kemungkinan dunia di mana
rongga ∨ sakit gigi memegang:

P (rongga ∨ sakit gigi) = 0,108 + 0,012 + 0,072 + 0,008 + 0,016 + 0,064 = 0,28.
Salah satu tugas yang paling umum adalah untuk mengekstrak distribusi atas beberapa
subset variabel atau satu variabel. Sebagai contoh, menambahkan entri di baris pertama
memberi tanpa syarat atau probabilitas marginal4 dari rongga: MARGINAL
KEMUNGKINAN P (rongga) = 0,108 + 0,012 + 0,072 + 0,008 = 0,2.
MARGINALISASI Proses ini disebut marjinalisasi, atau penjumlahan - karena kita
menjumlahkan probabil ??? ities untuk setiap nilai yang mungkin dari variabel lain,
sehingga membawa mereka keluar dari persamaan.
Kita dapat menulis aturan marginalisasi umum berikut untuk setiap set variabel Y dan Z:

P(Y)=z∈ZP(Y, z) ,dimana

z∈Z berarti merangkum semua kemungkinan kombinasi nilai dari set variabel
Z. Kami terkadang menyingkat ini sebagai

z, meninggalkan Z implisit. Kami hanya menggunakan aturan sebagai

P (Rongga) = z∈{ Tangkap, Sakit gigi } P(Rongga, z) .


Varian dari aturan ini melibatkan probabilitas bersyarat, bukan probabilitas gabungan,
menggunakan aturan produk:
Y) = z
P(Y | z)P(z) .

Aturan ini disebut pengkondisian. Marjinalisasi dan pengkondisian menjadi aturan yang
bermanfaat untuk semua jenis derivasi yang melibatkan ekspresi probabilitas.
Dalam banyak kasus, kami tertarik untuk menghitung probabilitas kondisional dari
beberapa variabel, memberikan bukti tentang orang lain. Probabilitas bersyarat dapat
ditemukan dengan menggunakan pertama 4 Disebut demikian karena praktek umum di
kalangan aktuaris menulis jumlah frekuensi yang diamati dalam margin tabel asuransi.

Persamaan (13,3) untuk mendapatkan ekspresi dalam hal probabilitas tanpa syarat dan
kemudian evaluating ekspresi dari distribusi bersama penuh. Sebagai contoh, kita dapat
menghitung probabilitas dari rongga, diberikan bukti sakit gigi, sebagai berikut:
P(rongga|sakit gigi)=P(rongga^sakit gigi)/P(sakit gigi)
0.108+0.012/0.108 + 0.012 + 0.016 + 0.064 = 0.6
Hanya untuk memeriksa, kami juga dapat menghitung probabilitas bahwa tidak ada rongga,
diberi sakit gigi:

P(rongga|sakit gigi)=P(rongga^sakit gigi)/P(sakit gigi)


0.108+0.064/0.108 + 0.012 + 0.016 + 0.064 = 0.4

Kedua nilai itu berjumlah 1,0, sebagaimana seharusnya. Perhatikan bahwa dalam dua
perhitungan ini istilahnya 1 / P (sakit gigi) tetap konstan, tidak peduli berapa nilai rongga
yang kita hitung. Faktanya, NORMALISASI dapat dilihat sebagai konstanta normalisasi
untuk distribusi P (rongga | sakit gigi), memastikan bahwa itu menambah hingga 1.
Sepanjang bab-bab yang berhubungan dengan probabilitas, kami menggunakan α untuk
menunjukkan konstanta seperti itu. Dengan notasi ini, kita dapat menulis dua persamaan
sebelumnya dalam satu:

P (Rongga | Sakit gigi) = α P (Rongga, sakit gigi)


= α [P (rongga, Sakit gigi, menangkap) + P (Rongga, sakit gigi, menangkap)]
= α [ 0,108, 0,016? + 0,012, 0,064] = Α 0,12, 0,08? = 0,6 0,4? .

Dengan kata lain, kita dapat menghitung P (menangkap | sakit gigi) bahkan jika kita tidak
tahu nilainya P (sakit gigi)! Kami melupakan sementara faktor 1 / P (sakit gigi) dan
menambahkan nilainya untuk rongga dan ¬ rongga, mendapatkan 0,12 dan 0,08. Itu adalah
proporsi relatif yang benar, tetapi mereka tidak berjumlah 1, jadi kami menormalkannya
dengan membagi masing-masing dengan 0,12 + 0,08, dapatkan
probabilitas sebenarnya 0,6 dan 0,4. Normalisasi ternyata menjadi jalan pintas yang
berguna bagi banyak orang perhitungan probabilitas, baik untuk membuat perhitungan
lebih mudah dan memungkinkan kita untuk melanjutkan kapan beberapa penilaian
probabilitas (seperti P (sakit gigi)) tidak tersedia.

Dari contoh, kita dapat mengekstrak prosedur inferensi umum. Kami mulai dengan
kasus di mana permintaan melibatkan satu variabel, X (Rongga dalam contoh). Biarkan E
menjadi daftar variabel bukti (hanya sakit gigi dalam contoh), biarkan e menjadi daftar nilai
yang diamati bagi mereka, dan biarkan Y menjadi variabel tak teramati yang tersisa (hanya
menangkap dalam contoh). Itu menangkap adalah P (X | e) dan dapat dievaluasi sebagai :

P (X | e) = α P (X, e) = α

P (X, e, y), (13,9)

di mana penjumlahan berakhir semua y yang mungkin (yaitu, semua kombinasi nilai yang
mungkin dari variabel tidak teramati Y). Perhatikan bahwa bersama-sama variabel X, E,
dan Y merupakan kumpulan variabel untuk domain, sehingga P (X, e, y) hanyalah subset
probabilitas dari distribusi bersama penuh.Mengingat distribusi bersama penuh untuk
bekerja dengan, Persamaan (13,9) dapat menjawab probabilistik query untuk variabel
diskrit. Ini tidak skala baik, namun: untuk domain yang dijelaskan oleh n
Variabel Boolean, membutuhkan tabel input ukuran O (2n) dan membutuhkan waktu O
(2n) untuk memproses Itu distribusi bersama lengkap dalam bentuk tabel tidak hanya alat
praktis untuk membangun sistem penalaran.
Sebaliknya, ini harus dilihat sebagai landasan teoretis yang menjadi pendekatan yang lebih
efektif dapat dibangun, sama seperti tabel kebenaran membentuk landasan teoritis untuk
algoritma yang lebih praktis
seperti DPLL. Bagian selanjutnya dari bab ini memperkenalkan beberapa ide dasar yang
diperlukan persiapan untuk pengembangan sistem realistis dalam Bab 14.
Mari kita memperluas distribusi bersama lengkap pada Gambar 13.3 dengan menambahkan
variabel keempat, cuaca. Distribusi bersama penuh kemudian menjadi P (sakit gigi,
tangkap, rongga,cuaca), yang memiliki

2 × 2 × 2 × 4 = 32 entri. Ini berisi empat "edisi" dari tabel yang ditunjukkan pada Gambar
13.3

satu untuk setiap jenis cuaca. Hubungan apa yang dimiliki oleh edisi-edisi ini untuk satu
sama lain dan untuk tabel tiga variabel asli? Misalnya, bagaimana P (sakit gigi, tangkap,
rongga, keruh) dan P (sakit gigi, tangkap, rongga) terkait? Kami dapat menggunakan aturan
produk:

P (sakit gigi, tangkap, rongga, keruh) = P (keruh | sakit gigi, tangkap, rongga) P (sakit gigi,
tangkap, rongga).

Sekarang, kecuali seseorang dalam bisnis dewa, orang seharusnya tidak membayangkan
masalah gigi seseorang mempengaruhi cuaca. Dan untuk kedokteran gigi dalam ruangan,
setidaknya, tampaknya aman untuk mengatakan bahwa cuaca
tidak mempengaruhi variabel gigi. Oleh karena itu, pernyataan berikut ini tampaknya
masuk akal:

P (berawan | sakit gigi, tangkap, rongga) = P (berawan).


Dari ini, kita bisa menyimpulkan

P (sakit gigi, tangkap, rongga, keruh) = P (berawan) P (sakit gigi, tangkap, rongga).
Persamaan serupa ada untuk setiap entri di P (Sakit gigi, Menangkap, Rongga, Cuaca).
Faktanya, kita bisa menulis persamaan umum

P (Sakit Gigi, Tangkapan, Rongga, Cuaca) = P (Sakit Gigi, Tangkapan, Rongga) P (Cuaca).

Dengan demikian, tabel 32-elemen untuk empat variabel dapat dibangun dari satu tabel 8-
elemen dan satu tabel 4-elemen. Dekomposisi ini digambarkan secara skematik pada
Gambar 13.4 (a).

INDEPENDENSI Properti yang kita gunakan dalam Persamaan (13.10) disebut


kemandirian (juga marjinal dalam ??? ketergantungan dan kemandirian mutlak). Secara
khusus, cuaca tidak bergantung pada cuaca seseorang
masalah gigi. Independensi antara proposisi a dan b dapat ditulis sebagai

P(a | b) = P(a) atau P(b | a) = P(b) atau P(a ∧ b) = P(a)P(b) .

Semua bentuk ini setara (Latihan 13.12). Kemandirian antara variabel X dan Y
dapat ditulis sebagai berikut (sekali lagi, ini semua setara):
P(X | Y ) = P(X) atau P(Y | X) = P(Y ) atau P(X, Y ) = P(X)P(Y ) .

Pernyataan kemandirian biasanya didasarkan pada pengetahuan tentang domain. Seperti


sakit gigi Contoh cuaca mengilustrasikan, mereka dapat secara dramatis mengurangi
jumlah informasi yang diperlukan untuk menentukan distribusi bersama. Jika set lengkap
variabel dapat dibagi menjadi subset independen, maka distribusi gabungan lengkap dapat
diperhitungkan dalam sambungan terpisah distribusi pada subset tersebut. Misalnya,
distribusi bersama penuh pada hasil n koin independen membalik, P (C1, ..., Cn), memiliki
2n entri, tetapi dapat direpresentasikan sebagai prod uct dari n distribusi variabel tunggal P
(Ci). Secara lebih praktis, kemandirian kedokteran gigi dan meteorologi adalah hal yang
baik, karena jika tidak praktek kedokteran gigi mungkin
membutuhkan pengetahuan meteorologi yang mendalam, dan sebaliknya. Ketika mereka
tersedia, maka, pernyataan kemerdekaan dapat membantu mengurangi ukuran representasi
domain dan kompleksitas masalah inferensi. Sayangnya, bersih
pemisahan seluruh set variabel dengan independensi cukup langka. Setiap kali ada koneksi,
namun tidak langsung, ada di antara dua variabel, independensi akan gagal untuk
dipertahankan. Bahkan, subset independen pun bisa sangat besar misalnya, kedokteran gigi
mungkin melibatkan lusinan penyakit dan ratusan gejala, semuanya saling terkait. Untuk
menangani masalah seperti itu, kita membutuhkan metode yang lebih halus daripada
konsep kemerdekaan yang langsung.
Kasus yang lebih umum dari aturan Bayes untuk variabel multinilai dapat ditulis dalam
notasi P sebagai berikut:

𝑷(𝑿 |𝒀 )𝑷(𝒀 )
P(Y |X)= 𝑷(𝑿)
Oleh karena itu, hal ini dianggap sebagai mewakili persamaan, yang berurusan dengan nilai
spesifik dari variabel. Atau bisa juga menggunakan versi amoregeneral yang dikondisikan
pada beberapa bukti latar belakang e:

𝑷(𝑿 |𝒀,𝒆)𝑷(𝒀 |𝒆)


P(Y |X,e)= 𝑷(𝑿 |𝒆)
13.5.1 Menerapkan aturan Bayes: Kasus sederhana
Pada permukaan, aturan bayers tidak terlalu berguna. Memungkinkan kita untuk
menghitung istilah P(b|a) dalam tiga istilah: P (a | b), P (b), dan P (a) Itu tampak seperti
dua langkah mundur, tetapi aturan Bayes berguna dalam praktik karena ada banyak kasus
di mana kami memiliki perkiraan probabilitas yang bagus untuk ketiga angka ini dan perlu
menghitung yang keempat. Seringkali, kita merasakan efek dari beberapa penyebab yang
tidak diketahui dan kami ingin menentukan penyebabnya. Dalam hal ini, aturan Bayes
menjadi

𝑷(𝒆𝒇𝒇𝒆𝒄𝒕|𝒄𝒂𝒖𝒔𝒆)𝑷(𝒄𝒂𝒖𝒔𝒆)
P(cause |effect)= 𝑷(𝒆𝒇𝒇𝒆𝒄𝒕)
probabilitas kondisional P(effect|cause) mengukur hubungan dalam arah kausal,
sedangkan P (cause | effect) menggambarkan arah diagnostik. Dalam tugas seperti
diagnosis medis, kita sering memiliki probabilitas kondisional pada hubungan kausal
(yaitu, dokter mengetahui P (symptoms |disease)) dan ingin memperoleh diagnosis, P
(disease |symptoms). dan ingin memperoleh diagnosis, P (penyakit | gejala). Sebagai
contoh, seorang dokter tahu bahwa penyakit meningitis menyebabkan pasien memiliki
leher kaku, katakanlah, 70% dari waktu. Dokter juga mengetahui beberapa fakta tanpa
syarat: kemungkinan sebelumnya bahwa pasien mengalami meningitis adalah 1 / 50.000,
dan kemungkinan sebelumnya bahwa setiap pasien memiliki leher kaku adalah 1%.
Membiarkan menjadi proposisi bahwa pasien memiliki leher kaku dan m menjadi dalil
bahwa pasien mengalami meningitis, kita memiliki :
P(s|m)=0 .7
P(m)=1 /50000
P(s)=0 .01
𝑃(𝑠|𝑚)𝑃(𝑚) 0.7 × 1/50000
P(m|s) = = = 0 .0014
𝑃(𝑠) 0.01
Artinya, kami memperkirakan kurang dari 1 dari 700 pasien dengan leher kaku mengalami
meningitis. Perhatikan bahwa meskipun leher kaku cukup kuat ditunjukkan oleh
meningitis (dengan probabilitas 0,7), kemungkinan meningitis pada pasien tetap kecil. Ini
karena kemungkinan sebelumnya leher kaku jauh lebih tinggi daripada meningitis.
Bagian 13.3 mengilustrasikan proses dimana seseorang dapat menghindari
menilai probabilitas sebelumnya dari bukti (here, P (s)) dengan cara menghitung
probabilitas posterior untuk setiap nilai.

variabel query (here, m and ¬m) dan kemudian menormalkan hasil. Proses yang sama
dapat diterapkan saat menggunakan aturan Bayes. Kita punya

P(M |s)=α {𝑃(𝑠|𝑚)𝑃(𝑚), 𝑃(𝑠|¬𝑚)𝑃(¬𝑚)} .


Jadi, untuk menggunakan pendekatan ini kita perlu memperkirakan P(s|¬m). tidak ada
yang geratis — terkadang mudah, terkadang sulit. Bentuk umum dari aturan Bayes
dengan normalisasi adalah

P(Y |X)=αP(X |Y )P(Y ) ,


di mana α adalah konstanta normalisasi yang diperlukan untuk membuat entri dalam P (Y
| X) berjumlah 1.
Satu pertanyaan yang jelas untuk ditanyakan tentang aturan Bayes adalah
mengapa seseorang mungkin memiliki probabilitas bersyarat dalam satu arah, tetapi tidak
yang lain. Dalam domain meningitis, mungkin dokter tahu bahwa leher kaku menyiratkan
meningitis pada 1 dari 5000 kasus; yaitu, dokter memiliki informasi kuantitatif dalam arah
diagnostik dari gejala hingga penyebab. Dokter seperti itu tidak perlu menggunakan
aturan Bayes. Sayangnya, pengetahuan diagnostik seringkali lebih rapuh daripada
pengetahuan kausal. Jika ada epidemi meningitis mendadak, probabilitas meningitis
tanpa syarat, P (m), akan meningkat. Dokter yang menurunkan probabilitas diagnostik P
(m | s) langsung dari pengamatan statistik pasien sebelum epidemi tidak akan tahu
bagaimana memperbarui nilai, tetapi dokter yang menghitung P (m | s) dari tiga nilai
lainnya akan melihat bahwa P (m | s) harus naik secara proporsional dengan P (m). Yang
paling penting, informasi kausal P (s | m) tidak terpengaruh oleh epidemi, karena itu
hanya merefleksikan cara kerja meningitis. Penggunaan jenis sebab-akibat langsung atau
pengetahuan berbasis model ini menyediakan kekuatan penting yang diperlukan untuk
membuat sistem probabilistik layak di dunia nyata.

13.5.2 Menggunakan aturan Bayes: Menggabungkan bukti

kita telah melihat bahwa aturan Bayes dapat berguna untuk menjawab pertanyaan
probabilistik yang dikondisikan pada satu bukti — misalnya, leher kaku. Secara khusus,
kita berpendapat bahwa informasi probabilistik tersedia dalam bentuk P(effect|cause).
Misalnya, apa yang dapat disimpulkan dokter gigi jika bajanya mendeteksi gigi pasien yang
sakit? Jika kita mendistribusikan bersama (Gambar 13.3), kita dapat membaca
jawabannya:
P(Cavity |toothache ∧ catch)=α {0.108, 0.016} ≈
{0.871, 0.129}.

Kita tahu, bagaimanapun, bahwa pendekatan semacam itu tidak meningkatkan hingga
jumlah variabel yang lebih besar. Kita dapat mencoba menggunakan aturan Bayes untuk
merumuskan ulang masalah :

P(Cavity |toothache ∧ catch)


= αP(toothache ∧ catch |Cavity)P(Cavity) .
Agar reformulasi ini berfungsi, kita perlu mengetahui probabilitas bersyarat dari sakit gigi
∧catch untuk nilai rongga. Itu mungkin layak untuk dua variabel bukti, tetapi sekali lagi itu
tidak meningkat. Jika ada n kemungkinan variabel bukti (sinar X, diet, kebersihan mulut,
dll), maka ada 2n kemungkinan kombinasi nilai yang diamati untuk mana kita perlu
mengetahui probabilitas bersyarat. Kami mungkin juga kembali menggunakan distribusi
gabungan penuh. Inilah yang pertama yang mendorong para peneliti menjauhi teori
probabilitas.

Perkiraan metode untuk bukti kombinasi, ketika memberikan jawaban yang salah,
memerlukan jumlah yang lebih sedikit untuk jawaban yang lain.
Daripada mengambil rute ini, kita perlu menemukan beberapa pernyataan
tambahan tentang domain yang akan memungkinkan kita menyederhanakan ekspresi.
Gagasan kemerdekaan dalam Bagian 13.4 memberikan petunjuk, tetapi perlu diperbaiki.
Akan lebih baik jika Toothache dan Catch bersifat independen, tetapi mereka tidak: jika
probe menangkap di gigi, maka kemungkinan gigi memiliki rongga dan bahwa rongga
menyebabkan sakit gigi. Variabel-variabel ini bersifat independen, bagaimanapun,
mengingat adanya atau tidak adanya rongga. Masing-masing secara langsung disebabkan
oleh rongga, tetapi tidak memiliki efek langsung pada yang lain: sakit gigi tergantung pada
keadaan saraf di gigi, sedangkan akurasi probe tergantung pada keterampilan dokter gigi,
yang sakit gigi tidak relevan. Secara matematis, properti ini ditulis sebagai

P(toothache ∧ catch |Cavity)=P(toothache |Cavity)P(catch


|Cavity) .

Persamaan ini mengekspresikan independensi dari sakit gigi dan menangkap rongga yang
diberikan. Kita dapat menghubungkannya ke Persamaan (13.16) untuk mendapatkan
probabilitas sebuah rongga:

P(Cavity |toothache ∧ catch)


= α P(toothache |Cavity)P(catch |Cavity)P(Cavity)
Sekarang persyaratan informasi adalah sama seperti untuk inferensi, menggunakan masing-
masing bagian bukti secara terpisah: probabilitas sebelumnya P (Cavity) untuk variabel
query dan probabilitas bersyarat dari setiap efek, penyebabnya.
Definisi umum dari independensi bersyarat dari dua variabel X dan Y, diberikan
variabel ketiga Z, adalah

P(X,Y |Z)=P(X |Z)P(Y |Z) .


Dalam domain dokter gigi, contoh, tampaknya masuk akal untuk menegaskan kondisi
indipenden dari variabel sakit gigi dan, diberikan Rongga:

P(Toothache,Catch |Cavity)=P(Toothache |Cavity)P(Catch


|Cavity) .

Perhatikan bahwa pernyataan ini agak lebih kuat daripada Persamaan (13.17), yang
menegaskan kemandirian hanya untuk nilai-nilai khas Toothache dan Catch. Seperti
dengan kemandirian mutlak dalam Persamaan (13.11), bentuk yang setara
P(X |Y,Z)=P(X |Z) and P(Y |X,Z)=P(Y |Z)
juga bisa digunakan (lihat Latihan 13.17). Bagian 13.4 menunjukkan bahwa pernyataan
independensi absolut memungkinkan dekomposisi distribusi gabungan penuh menjadi
bagian yang lebih kecil. Ternyata hal yang sama berlaku untuk pernyataan independen
bersyarat. Sebagai contoh, diberikan pernyataan dalam Persamaan (13.19), kita dapat
memperoleh dekomposisi sebagai berikut:
P(Toothache,Catch,Cavity)
= P(Toothache,Catch |Cavity)P(Cavity) (product rule)
= P(Toothache |Cavity)P(Catch |Cavity)P(Cavity)
(Pembaca dapat dengan mudah memeriksa bahwa persamaan ini memang berlaku di
Gambar 13.3.) Dengan cara ini, tabel besar asli diuraikan menjadi tiga tabel yang lebih
kecil. Tabel aslinya adalah tujuh.
Asumsinya adalah bahwa pasien dan dokter gigi adalah individu yang berbeda.

nomor independen (23 = 8 entri dalam tabel, tetapi jumlahnya harus 1, jadi 7 independen).
Tabel yang lebih kecil berisi lima nomor independen (untuk distribusi probabilitas
bersyarat seperti P (T | C ada dua baris dua angka, dan setiap baris berjumlah 1, jadi itu dua
angka independen; untuk distribusi sebelumnya seperti P (C) hanya ada satu nomor
independen. ”Mulai dari tujuh hingga lima mungkin tidak tampak seperti kemenangan
besar, tetapi intinya adalah bahwa, untuk n gejala yang semuanya independen secara
kondisional diberikan Rongga, ukuran representasi tumbuh sebagai O (n) sebagai gantinya.
dari O (2n) .Ini berarti bahwa pernyataan independen bersyarat dapat memungkinkan
sistem probabilistik untuk ditingkatkan, apalagi, mereka jauh lebih umum tersedia daripada
pernyataan independensi absolut. Secara konsep, Rongga memisahkan Toothache dan
Catch karena itu adalah penyebab langsung dari keduanya. Dekomposisi domain
probabilistik besar ke dalam subset yang terhubung lemah melalui kemandirian bersyarat
adalah salah satu perkembangan paling penting dalam sejarah AI akhir-akhir ini.
Contoh kedokteran gigi menggambarkan pola yang umum terjadi di mana satu
penyebab langsung mempengaruhi sejumlah efek, yang semuanya tergantung kondisional,
mengingat penyebabnya. Distribusi bersama lengkap dapat ditulis sebagai
P(Cause,Effect11,...,Effectn) = =P(Cause) πi P(Effecti |Cause) .
Distribusi probabilitas seperti itu disebut model Bayes naif— "naif" karena sering kali
NAIVE BAYES digunakan (sebagai asumsi penyederhanaan) dalam kasus di mana "efek"
variabel tidak benar-benar independen secara kondisional dengan variabel penyebab.
(Model naif Bayes kadang-kadang disebut klausa Bayesian, penggunaan yang agak
sembrono yang telah mendorong orang Bayesian sejati untuk menyebutnya model
Bayesian yang bodoh.) Dalam praktiknya, sistem Bayes naif dapat bekerja dengan sangat
baik, bahkan ketika asumsi independensi bersyarat tidak benar . Bab 20 menjelaskan
metode untuk mempelajari distribusi bayes naif dari observasi.
13.6 Dunia wumpus ditinjau kembali

Kita dapat menggabungkan ide-ide dalam bab ini untuk memecahkan masalah
penalaran probabilistik di wumpusworld. (LihatChapter7untuk deskripsi lengkap
dari thethewumpusworld.) Ketidakpastian muncul di dunia wumpus karena sensor
agen hanya memberikan sebagian informasi tentang dunia. Sebagai contoh, Gambar
13.5 menunjukkan situasi di mana masing-masing dari tiga kotak yang dapat
dijangkau— [1,3], [2,2], dan [3,1] —mungkin mengandung lubang. Inferensi logis
murni tidak dapat menyimpulkan apa-apa tentang persegi mana yang paling
mungkin aman, jadi agen logis mungkin harus memilih secara acak. Kita akan
melihat bahwa agen probabilistik dapat melakukan jauh lebih baik daripada agen
logis.
Tujuan kami adalah menghitung probabilitas masing-masing dari tiga kotak
berisi lubang. (Untuk contoh ini kita mengabaikan wumpus dan emas.) Sifat yang
relevan dari dunia wumpus adalah bahwa (1) lubang menyebabkan angin sepoi-
sepoi di semua kotak yang berdekatan, dan (2) setiap persegi selain [1,1] berisi
lubang dengan probabilitas 0,2. Langkah pertama adalah mengidentifikasi
kumpulan variabel acak yang kita butuhkan:
• Seperti dalam kasus logika proposisional, kita menginginkan satu variabel
Boolean Pij untuk setiap kuadrat, yang benar jika kuadrat [i, j] sebenarnya berisi
lubang.

• Kami juga memiliki variabel Boolean Bij yang benar jika kuadrat [i, j]
adalah berangin; kami memasukkan variabel-variabel ini hanya untuk kuadrat
yang diamati — dalam hal ini, [1,1], [1,2], dan [2,1].

Langkah selanjutnya adalah menentukan distribusi bersama lengkap, P (P1,1, ...,


P4,4, B1,1, B1,2, B2,1). Menerapkan aturan produk, kami punya
P(P1,1,...,P4,4,B1,1,B1,2,B2,1) =
P(B1,1,B1,2,B2,1 | P1,1,...,P4,4)P(P1,1,...,P4,4) .

Dekomposisi ini membuatnya mudah untuk melihat nilai-nilai probabilitas gabungan.


Istilah pertama adalah distribusi probabilitas bersyarat dari konfigurasi angin, diberikan
konfigurasi pit; nilainya adalah 1 jika angin berdekatan dengan pit dan 0 sebaliknya. Istilah
kedua adalah probabilitas sebelumnya dari konfigurasi pit. Setiap persegi berisi lubang
dengan probabilitas 0,2, terlepas dari kotak lainnya; karenanya,

P(P1,1,...,P4,4) = P (Pi,j)

Untuk konfigurasi tertentu dengan tepat n lubang, P (P1,1, ..., P4,4) = 0, 2n × 0,816 − n. .
Dalam situasi pada Gambar 13.5 (a), bukti terdiri dari angin yang diamati (atau
ketiadaannya) di setiap kotak yang dikunjungi, dikombinasikan dengan fakta bahwa
masing-masing persegi tersebut tidak mengandung lubang. Kami menyingkat fakta-fakta
ini sebagai b = ¬b1,1∧b1,2∧b2,1 dan diketahui = ¬p1,1∧¬p1,2∧¬p2,1 . Kami tertarik untuk
menjawab pertanyaan seperti P (P1,3 | known, b): seberapa mungkin [1,3] berisi
lubang, mengingat pengamatan sejauh ini?
Untuk menjawab pertanyaan ini, kita dapat mengikuti pendekatan standar
Persamaan (13.9), yaitu, menjumlahkan entri dari distribusi gabungan penuh. Biarkan
Tidak diketahui menjadi himpunan Pi, j
variable untuk kuadrat selain kuadrat Dikenal dan kuadrat kuadrat [1,3]. Kemudian, dengan
Persamaan (13,9), kita punya

Probabilitas gabungan penuh telah ditentukan, jadi kita selesai — yaitu, kecuali kita peduli
tentang perhitungan. Ada 12 kotak yang tidak diketahui; maka penjumlahannya
mengandung 212 = 4096 istilah. Ingeneral, penjumlahan tumbuh secara eksponensial
dengan jumlah kuadrat.
Tentunya, orang mungkin bertanya, bukankah kotak-kotak lain tidak relevan?
Bagaimana bisa [4,4] mempengaruhi apakah [1,3] memiliki lubang? Memang, intuisi ini
benar. Biarkan Frontier menjadi variabel pit (selain variabel query) yang berdekatan
dengan kotak yang dikunjungi, dalam hal ini hanya [2,2] dan [3,1]. Juga, biarkan tempat-
tempat lain yang berbeda menjadi tempat-tempat lain yang tidak diketahui; Dalam hal ini,
ada 10 kotak lainnya, seperti yang ditunjukkan pada Gambar 13.5 (b). Kunci wawasannya
adalah bahwa hembusan angin yang diamati bersifat independen secara kondisional
terhadap variabel lain, dengan mempertimbangkan variabel yang dikenal, perbatasan, dan
kueri. Untuk menggunakan wawasan, kami memanipulasi rumus kueri ke dalam bentuk di
mana breezes dikondisikan pada semua variabel lainnya, dan kemudian kami menerapkan
kemerdekaan bersyarat:

di mana langkah terakhir menggunakan kemandirian bersyarat: b tidak bergantung pada


yang lain yang diketahui, P1,3, dan di bagian depan. Sekarang, istilah pertama dalam
ekspresi ini tidak bergantung pada variabel lain, jadi kita dapat memindahkan penjumlahan
ke dalam:

Dengan kemandirian, seperti dalam Persamaan (13.20), istilah sebelumnya dapat


difaktorkan, dan kemudian persyaratannya dapat diurutkan kembali:
di mana langkah terakhir melipat P (dikenal) ke dalam konstanta normalisasi dan
menggunakan fakta itu

Sekarang, hanya ada empat istilah dalam penjumlahan atas variabel perbatasan P2,2
dan P3,1. Penggunaan kemandirian dan kemerdekaan bersyarat telah benar-benar
menghilangkan kotak-kotak lain dari pertimbangan.
Perhatikan bahwa ekspresi P (b | diketahui, P1,3, frontier) adalah 1 ketika
perbatasan konsisten dengan observasi angin, dan 0 sebaliknya. Jadi, untuk setiap nilai P1,3,
kami menjumlahkan model logis untuk variabel perbatasan yang konsisten dengan fakta
yang diketahui. (Bandingkan dengan penghitungan atas model pada Gambar 7.5 di halaman
241.) Model dan probabilitas sebelumnya terkait — P (frontier) —tampak pada Gambar
13.6. Kita punya

Yaitu, [1,3] (dan [3,1] oleh simetri) berisi lubang dengan probabilitas sekitar 31%.
Perhitungan serupa, yang mungkin ingin dilakukan oleh pembaca, menunjukkan bahwa
[2,2] mengandung lubang dengan probabilitas sekitar 86%. Agen wumpus pasti harus
menghindari [2,2]! Perhatikan bahwa agen logis kami dari Bab 7 tidak tahu bahwa [2,2]
lebih buruk daripada kotak lainnya. Logika dapat memberi tahu kita bahwa tidak diketahui
apakah ada lubang di [2, 2], tetapi kita perlu probabilitas untuk memberi tahu kita seberapa
besar kemungkinannya.
Apa yang telah ditunjukkan bagian ini adalah bahwa masalah yang kelihatannya
rumit dapat dirumuskan secara tepat dalam teori probabilitas dan diselesaikan dengan
algoritma sederhana. Untuk mendapatkan solusi yang efisien, independensi dan hubungan
kemandirian bersyarat dapat digunakan untuk menyederhanakan penjumlahan yang
diperlukan. Hubungan ini sering sesuai dengan pemahaman alami kita tentang bagaimana
masalah harus diuraikan. Pada bab berikutnya, kami mengembangkan representasi formal
untuk hubungan seperti itu serta algoritma yang beroperasi pada representasi tersebut untuk
melakukan inferensi probabilistik secara efisien.
Bab ini telah menyarankan teori probabilitas dasar yang sesuai untuk alasan tertentu dan
memberikan pengenalan yang lembut untuk penggunaannya.

• Ketidakpastian muncul karena kemalasan dan ketidaktahuan. Ini tidak dapat


dihindari dalam lingkungan yang kompleks, nondeterministic, atau sebagian
dapat diamati.
• Probabilitas menyatakan ketidakmampuan agen untuk mencapai keputusan pasti
tentang kebenaran kalimat. Probabilitas merangkum keyakinan agen terkait
dengan bukti.
• Teori keputusan menggabungkan keyakinan dan keinginan agen, mendefinisikan
tindakan terbaik sebagai yang memaksimalkan utilitas yang diharapkan.
• Pernyataan probabilitas dasar mencakup kemungkinan sebelumnya dan
probabilitas bersyarat atas proposisi sederhana dan kompleks
• Aksioma kemungkinan membatasi kemungkinan penugasan probabilitas ke
proposisi. Agen yang melanggar aksioma harus berperilaku tidak rasional dalam
beberapa kasus.
• Distribusi probabilitas gabungan penuh menentukan probabilitas setiap
penugasan lengkap nilai-nilai ke variabel acak. Biasanya terlalu besar untuk dibuat
atau digunakan dalam bentuk eksplisitnya, tetapi ketika tersedia itu dapat
digunakan untuk menjawab pertanyaan hanya dengan menambahkan entri untuk
dunia yang mungkin sesuai dengan proposisi kueri.
• Independensi mutlak antara himpunan bagian dari variabel acak memungkinkan
distribusi gabungan penuh untuk diperhitungkan dalam distribusi bersama yang
lebih kecil, sangat mengurangi kerumitannya. Kemerdekaan mutlak jarang terjadi
dalam praktek.
• Aturan Bayes memungkinkan probabilitas yang tidak diketahui untuk dihitung
dari probabilitas kondisional yang diketahui, biasanya dalam arah kausal.
Menerapkan aturan Bayes dengan banyak bukti berjalan ke dalam masalah skala
yang sama seperti distribusi bersama penuh.
• Kemandirian kondisional yang disebabkan oleh hubungan sebab-akibat langsung
dalam domain memungkinkan distribusi gabungan lengkap untuk diperhitungkan
dalam distribusi bersyarat yang lebih kecil. Model Bayes naif mengasumsikan
independensi bersyarat dari semua variabel efek, diberi variabel penyebab
tunggal, dan tumbuh secara linier dengan sejumlah efek.
• Seorang agen wumpus-dunia dapat menghitung probabilitas untuk aspek-aspek
dunia yang tidak teramati, dengan demikian meningkatkan keputusan-keputusan
agen logis. Kemandirian bersyarat membuat perhitungan ini bisa dikerjakan
Catatan Bibliografis dan Sejarah
Teori kemungkinan ditemukan sebagai cara menganalisis permainan kebetulan. Pada
sekitar tahun 850 A.D. matematikawan India Mahaviracarya menjelaskan bagaimana cara
mengatur daftar aset yang tidak dapat hilang (apa yang sekarang kita sebut buku Belanda).
Di Eropa, analisis sistematis pertama kali dihasilkan oleh Girolamo Cardano sekitar 1565,
meskipun publikasi adalah anumerta (1663). Pada saat itu, kemungkinan telah ditetapkan
sebagai disiplin matematika karena serangkaian
504 Bab 13. Menentukan Ketidakpastian

Hasil didirikan dalam korespondensi terkenal antara Blaise Pascal dan Pierre de Fermat
pada 1654. Seperti probabilitas itu sendiri, hasil awalnya dimotivasi oleh masalah perjudian
(lihat Latihan 13.9). Buku teks pertama yang diterbitkan tentang kemungkinan adalah De
Ratiociniis dalam Ludo Aleae (Huygens, 1657). Pandangan "kemalasan dan
ketidaktahuan" ketidakpastian telah dijelaskan oleh John Arbuthnot dalam kata pengantar
terjemahannya tentang Huygens (Arbuthnot, 1692): "Tidak mungkin untuk Die, dengan
kekuatan dan arah yang menentukan, tidak jatuh pada seperti sisi menentukan, hanya saja
saya tidak tahu kekuatan dan arah yang membuatnya jatuh di sisi yang menentukan, dan
oleh karena itu saya menyebutnya Chance, yang tidak lain adalah keinginan seni ...
”Laplace (1816) memberi gambaran probabilitas yang sangat akurat dan modern; dia
adalah orang pertama yang menggunakan contoh “ambil dua guci, A dan B, yang pertama
berisi empat bola putih dan dua bola hitam, ...” Pendeta Thomas Bayes (1702–1761)
memperkenalkan aturan untuk penalaran tentang probabilitas bersyarat yang dinamai
menurut namanya (Bayes, 1763). Bayes hanya mempertimbangkan kasus para prior yang
seragam; itu Laplace yang secara mandiri mengembangkan kasus umum. Kolmogorov
(1950, pertama kali diterbitkan dalam bahasa Jerman pada 1933) mempresentasikan teori
probabilitas dalam kerangka kerja aksiomatik yang ketat untuk pertama kalinya. R´enyi
(1970) kemudian memberikan presentasi aksiomatik yang mengambil probabilitas
bersyarat, daripada probabilitas absolut, sebagai primitif. Pascalusedprobability
inwaystrequired baik theobjectiveobjective, sewenang-wenang dunia berdasarkan simetri
atau frekuensi relatif, dan interpretasi subjektif, berdasarkan tingkat keyakinan-yang
pertama dalam analisisnya probabilitas dalam permainan kesempatan, yang terakhir dalam
argumen "Pascal" bertaruh tentang kemungkinan keberadaan Tuhan. Namun, Pascal tidak
jelas menyadari perbedaan antara dua interpretasi ini. Perbedaan ini pertama kali digambar
dengan jelas oleh James Bernoulli (1654–1705). Leibniz memperkenalkan gagasan
"klasik" tentang probabilitas sebagai proporsi dari kasus-kasus yang disebutkan, sama-
sama mungkin, yang juga digunakan oleh Bernoulli, meskipun hal itu menjadi terkenal oleh
Laplace (1749–1827). Gagasan ini ambigu antara interpretasi frekuensi dan interpretasi
subjektif. Kasus-kasus dapat dianggap sama kemungkinannya karena adanya simetri fisik
dan alami di antara mereka, atau hanya karena kita tidak memiliki pengetahuan yang akan
menuntun kita untuk mempertimbangkan satu kemungkinan lebih besar daripada yang lain.
Penggunaan yang terakhir ini, pertimbangan subyektif untuk membenarkan menetapkan
probabilitas yang sama dikenal sebagai prinsip ketidakpedulian. Prinsip ini sering dikaitkan
dengan Laplace, tetapi dia tidak pernah mengisolasi prinsip PRINCIPLEOF
INDIFFERENCE secara eksplisit. George Boole dan John Venn keduanya menyebutnya
sebagai prinsip tidak cukup alasan; nama modern adalah karena Keynes (1921)
.PRINCIPLEOF ALASAN INSUFFICIENT Perdebatan antara objektivis dan subjektivis
menjadi lebih tajam di abad ke-20. Kolmogorov (1963), R. A. Fisher (1922), dan Richard
von Mises (1928) adalah pendukung interpretasi frekuensi relatif. Karl Popper (1959,
pertama kali diterbitkan dalam bahasa Jerman pada 1934) penafsiran "kecenderungan"
melacak frekuensi relatif ke simetri fisik yang mendasarinya. Frank Ramsey (1931), Bruno
de Finetti (1937), R. T. Cox (1946), Leonard Savage (1954), Richard Jeffrey (1983), dan
E. T. Jaynes (2003) menafsirkan probabilitas sebagai derajat kepercayaan individu tertentu.
Analisis mereka tentang tingkat kepercayaan terkait erat dengan utilitas dan perilaku —
khususnya, pada keinginan untuk memasang taruhan. Rudolf Carnap, mengikuti Leibniz
dan Laplace, menawarkan jenis penafsiran subjektif yang berbeda tentang probabilitas —
bukan sebagai derajat keyakinan individu yang sebenarnya, tetapi sebagai tingkat
keyakinan yang dimiliki oleh individu yang diidealkan dalam proposisi tertentu, yang
diberikan pada bukti.

Catatan Bibliografi dan Sejarah 505

Carnap berusaha untuk melangkah lebih jauh dari Leibniz atau Laplace dengan
membuat gagasan tentang tingkat konfirmasi ini tepat secara matematis, sebagai hubungan
alogis antara a dan e. Studi tentang hubungan KONFIRMASI ini dimaksudkan untuk
membentuk suatu disiplin matematika yang disebut logika induktif, analo-
INDUCTIVELOGIC gous ke logika deduktif biasa (Carnap, 1948, 1950). Carnap tidak
mampu memperluas logika induktifnya jauh di luar kasus proposisional, dan Putnam
(1963) menunjukkan dengan argumen permusuhan bahwa beberapa kesulitan mendasar
akan mencegah ekstensi bahasa yang mampu mengungkapkan aritmatika. Teorema Cox
(1946) menunjukkan bahwa sistem apa pun untuk penalaran tidak pasti yang memenuhi
seperangkat anggapannya setara dengan teori probabilitas. Hal ini memberikan keyakinan
baru kepada mereka yang sudah menyukai probabilitas, tetapi yang lain tidak yakin,
menunjuk pada asumsi (terutama bahwa keyakinan harus diwakili oleh satu nomor, dan
dengan demikian keyakinan dalam ¬p harus menjadi fungsi dari keyakinan dalam p) .
Halpern (1999) menjelaskan asumsi dan menunjukkan beberapa kesenjangan dalam
formulasi asli Cox. Horn (2003) menunjukkan bagaimana menambal kesulitan. Jaynes
(2003) memiliki argumen serupa yang lebih mudah dibaca. Pertanyaan tentang kelas-kelas
referensi secara keseluruhan terikat pada upaya untuk menemukan logika induktif.
Pendekatan memilih kelas referensi "paling spesifik" dari ukuran yang cukup secara resmi
diusulkan oleh Reichenbach (1949). Berbagai upaya telah dilakukan, terutama oleh Henry
Kyburg (1977, 1983), untuk merumuskan kebijakan yang lebih canggih untuk menghindari
beberapa kekeliruan yang jelas yang muncul dengan aturan Reichenbach, tetapi pendekatan
semacam itu tetap agak bersifat ad hoc. Pekerjaan yang lebih baru oleh Bacchus, Grove,
Halpern, dan Koller (1992) memperluas metode Carnap ke teori orde pertama, sehingga
menghindari banyak kesulitan yang terkait dengan metode kelas referensi langsung.
Kyburg dan Teng (2006) kontras inferensi probabilistik dengan logika nonmonotonic.
Alasan probabilitas Bayesian telah digunakan dalam AI sejak 1960-an, terutama dalam
diagnosis medis. Ini digunakan tidak hanya untuk membuat diagnosis dari bukti yang
tersedia, tetapi juga untuk memilih pertanyaan dan tes lebih lanjut dengan menggunakan
teori nilai informasi (Bagian 16.6) ketika bukti yang tersedia tidak dapat disimpulkan
(Gorry, 1968; Gorry et al., 1973). Satu sistem mengungguli ahli manusia dalam diagnosis
penyakit perut akut (de Dombal et al., 1974). Lucas et al. (2004) memberikan gambaran
umum. Namun, sistem Bayesian awal ini mengalami sejumlah masalah. Karena mereka
tidak memiliki model teoritis dari kondisi yang mereka diagnosa, mereka rentan terhadap
data tidak representatif yang terjadi dalam situasi yang hanya tersedia sampel kecil (de
Dombal et al., 1981). Bahkan lebih mendasar lagi, karena mereka tidak memiliki
formalisme yang jelas (seperti yang dideskripsikan dalam Bab 14) untuk mewakili dan
menggunakan informasi independen bersyarat, mereka bergantung pada perolehan,
penyimpanan, dan pemrosesan tabel besar data probabilistik. Karena kesulitan-kesulitan
ini, metode probabilistik untuk mengatasi ketidakpastian tidak disukai AI sejak tahun 1970-
an hingga pertengahan 1980-an. Perkembangan sejak akhir 1980-an dijelaskan dalam bab
berikutnya. Model naif Bayes untuk distribusi bersama telah dipelajari secara ekstensif
dalam literatur pengenalan pola sejak tahun 1950-an (Duda dan Hart, 1973). Ini juga telah
digunakan, sering tanpa disadari, dalam pencarian informasi, dimulai dengan karya Maron
(1961). Pondasi probabilistik teknik ini, dijelaskan lebih lanjut dalam Latihan 13.22,
dijelaskan oleh Robertson dan Sparck Jones (1976). Domingos dan Pazzani (1997)
memberikan penjelasan

506 Bab 13. Menentukan Ketidakpastian

Untuk keberhasilan mengejutkan dari penalaran Bayesian yang naif bahkan dalam
domain di mana asumsi independensi jelas dilanggar. Ada banyak buku pengantar yang
bagus tentang teori probabilitas, termasuk yang oleh Bertsekas dan Tsitsiklis (2008) dan
Grinstead dan Snell (1997). DeGroot dan Schervish (2001) menawarkan pengenalan
gabungan terhadap probabilitas dan statistik dari sudut pandang Bayesian. Richard
Hamming (1991) buku teks memberikan pengenalan matematis canggih ke teori
probabilitas dari sudut pandang interpretasi kecenderungan berdasarkan simetri fisik.
Peretasan (1975) dan Hald (1990) mencakup sejarah awal konsep probabilitas. Bernstein
(1996) memberikan laporan populer yang menghibur tentang kisah risiko.

Anda mungkin juga menyukai