PENALARAN
Inferensi adalah adalah suatu proses untuk menghasilkan informasi dari fakta yang
diketahui. Inferensi juga dikatakan suatu konklusi
DISUSUN OLEHlogis
S. atau implikasi
SUBAGIO, berdasarkan
S.KOM, M.KOM
informasi yang tersedia.
DECISION TREE
Logika deduktif : kesimpulan merupakan konsekuensi
logis dari premis-premis yang ada
Mengambil kesimpulan khusus dari premis yang bersifat
umum
Pengambilan kesimpulan dapat secara langsung (hanya 1
premis) atau tidak langsung (beberapa premis)
Karakteristik pokok : kesimpulan benar harus mengikuti
dari premis yang benar
Premis disebut juga anteseden dan kesimpulan disebut
konsekuen
Salah satu jenis logika deduktif tidak langsung adalah
syllogisme
STRUKTUR SYLLOGISME
Silogisme adalah suatu proses penarikan kesimpulan secara deduktif. Silogisme disusun
dari dua proposisi (pernyataan) dan sebuah konklusi (kesimpulan). Sebagian para ahli
logika menyebut silogisme sebagai penyimpulan tidak langsung (immediate inference),
karena dalam silogisme menyimpulkan pengetahuan baru yang kebenarannya diambil
secara sintesis.
M : middle term
S : subjek
P : predikat
• Contoh silogisme Kategorial:
My: Semua mahasiswa adalah lulusan SLTA
•Contoh :
oMy : Jika tidak ada air, manusia akan kehausan.
Mn : Air tidak ada.
K : Jadi, Manusia akan kehausan.
• Fakta
– Memiliki uang $10.000(A TRUE)
– Berusia 25 tahun (B TRUE)
• Dia ingin meminta nasihat apakah tepat jika berinvestasi pada IBM
stock?
• Rules
R1 : IF seseorang memiliki uang $10.000 untuk berinvestasi
AND dia berpendidikan pada level college
THEN dia harus berinvestasi pada bidang sekuritas
R2 : IF seseorang memiliki pendapatan per tahun min $40.000
AND dia berpendidikan pada level college
THEN dia harus berinvestasi pada saham pertumbuhan (growth stocks)
R3 : IF seseorang berusia < 30 tahun
AND dia berinvestasi pada bidang sekuritas
THEN dia sebaiknya berinvestasi pada saham pertumbuhan
R4 : IF seseorang berusia < 30 tahun dan > 22 tahun
THEN dia berpendidikan college
R5 : IF seseorang ingin berinvestasi pada saham pertumbuhan
THEN saham yang dipilih adalah saham IBM.
• R1: IF A AND C, THEN E
• R2: IF D AND C, THEN F
• R3: IF B AND E, THEN F
• R4: IF B, THEN C
• R5: IF F, THEN G
FORWARD CHAINING
BACKWARD CHAINING
PENALARAN
Suatu penalaran dimana adanya penambahan fakta baru
mengakibatkan ketidakkonsistenan,
ciri-ciri penalaran sebagai berikut :
adanya ketidakpastian
adanya perubahan pada pengetahuan
adanya penambahan fakta baru dapat mengubah
konklusi yang sudah terbentuk
PENALARAN
• Contoh :
• Premis 1 : Aljabar adalah pelajaran yang sulit
• Premis 2 : Geometri adalah pelajaran yang sulit
• Premis 3 : Kalkulus adalah pelajaran yang sulit
• Kesimpulan : Matematika adalah pelajaran yang sulit
• muncul premis 4 : sosiologi adalah pelajaran yang sulit, akan
menyebabkan kesimpulan (Matematika adalah pelajaran yang
sulit) menjadi tidak berlaku karena sosiologi bukan bagian dari
matematika
• penalaran induktif sangat dimungkinkan adanya
ketidakpastian.
KETIDAKPASTIAN (UNCERTAINTY)
Kurang informasi yang memadai
Menghalangi untuk membuat keputusan yang terbaik
Salah satu teori yang berhubungan dengan ketidakpastian :
Probabilitas Bayes
PROBABILITAS
Probabilitas menunjukkan kemungkinan sesuatu akan terjadi atau tidak
PROBABILITAS
Contoh :
Misal dari 10 orang sarjana , 3 orang menguasai java,
sehingga peluang untuk memilih sarjana yang menguasai
java adalah :
p(java) = 3/10 = 0.3
PROBABILITAS BAYES
PROBABILITAS BAYES
Contoh :
Asih mengalami gejala ada bintik-bintik di wajahnya. Dokter menduga bahwa Asih terkena
cacar dengan :
probabilitas munculnya bintik-bintik di wajah, jika Asih terkena cacar →
p(bintik | cacar) = 0.8
probabilitas Asih terkena cacar tanpa memandang gejala apapun → p(cacar)
= 0.4
probabilitas munculnya bintik-bintik di wajah, jika Asih terkena alergi →
p(bintik | alergi) = 0.3
probabilitas Asih terkena alergi tanpa memandang gejala apapun → p(alergi)
= 0.7
probabilitas munculnya bintik-bintik di wajah, jika Asih jerawatan → p(bintik |
jerawatan) = 0.9
probabilitas Asih jerawatan tanpa memandang gejala apapun → p(jerawatan)
= 0.5
PROBABILITAS BAYES
Probabilitas Asih terkena cacar karena ada bintik2 di wajahnya :
PROBABILITAS BAYES
Probabilitas Asih terkena alergi karena ada bintik2 di wajahnya :
PROBABILITAS BAYES
Probabilitas Asih jerawatan karena ada bintik2 di wajahnya :
PROBABILITAS BAYES
Jika setelah dilakukan pengujian terhadap hipotesis muncul satu atau lebih
evidence (fakta) atau observasi baru maka :
PROBABILITAS BAYES
Misal : Adanya bintik-bintik di wajah merupakan gejala seseorang
terkena cacar. Observasi baru menunjukkan bahwa selain bintik-
bintik di wajah, panas badan juga merupakan gejala orang kena
cacar. Jadi antara munculnya bintik-bintik di wajah dan panas
badan juga memiliki keterkaitan satu sama lain.
PROBABILITAS BAYES
Asih ada bintik-bintik di wajahnya. Dokter menduga bahwa Asih
terkena cacar dengan probabilitas terkena cacar bila ada bintik-
bintik di wajah → p(cacar | bintik) = 0.8
Ada observasi bahwa orang terkena cacar pasti mengalami panas
badan. Jika diketahui probabilitas orang terkena cacar bila panas
badan → p(cacar | panas ) = 0.5
Keterkaitan antara adanya bintik-bintik di wajah dan panas badan
bila seseorang terkena cacar → p(bintik | panas, cacar) = 0.4
Keterkaitan antara adanya bintik-bintik di wajah dan panas badan
→ p(bintik | panas) = 0.6
PROBABILITAS BAYES
FAKTOR KEPASTIAN (CERTAINTY)
Certainty Factor (CF) menunjukkan ukuran kepastian terhadap
suatu fakta atau aturan.
CF[h,e] = MB[h,e] – MD[h,e]
CF[h,e] = faktor kepastian
MB[h,e] = ukuran kepercayaan/tingkat keyakinan
terhadap hipotesis h, jika diberikan/dipengaruhi
evidence e (antara 0 dan 1)
MD[h,e] = ukuran ketidakpercayaan/tingkat
ketidakyakinan terhadap hipotesis h, jika
diberikan/dipenharuhi evidence e (antara 0 dan 1)
Faktor Kepastian (Certainty)
FAKTOR KEPASTIAN (CERTAINTY)
Contoh :
Misal suatu observasi memberikan kepercayaan terhadap h1 dengan
MB[h1,e]=0,5 dan MD[h1,e] = 0,2 maka :
CF[h1,e] = 0,5 – 0,2 = 0,3
Jika observasi tersebut juga memberikan kepercayaan terhadap h2
dengan MB[h2,e]=0,8 dan MD[h2,e]=0,1, maka :
CF[h2,e] = 0,8 – 0,1= 0,7
Untuk mencari CF[h1 ∧ h2,e] diperoleh dari
MB[h1 ∧ h2,e] = min (0,5 ; 0,8) = 0,5
MD[h1 ∧ h2,e] = min (0,2 ; 0,1) = 0,1
CF[h1 ∧ h2,e] = 0,5 – 0,1 = 0,4
Untuk mencari CF[h1∨ h2,e] diperoleh dari
MB[h1∨ h2,e] = max (0,5 ; 0,8) = 0,8
MD[h1∨ h2,e] = max (0,2 ; 0,1) = 0,2
CF[h1∨ h2,e] = 0,8 – 0,2 = 0,6