Anda di halaman 1dari 23

Fungsi Prediksi - #5

DATA MINING

Eko Riyanto, S.Pd., M.Kom


Pokok Bahasan

5.1 Naïve Bayes Classifier

5.2 Decision Tree Learning


5.1 Naïve Bayes Classifier

Ide Dasar
 Misalkan ada dua jenis ikan (bandeng dan kakap) yang berjalan melalui
conveyor.
 Kita diminta mengamati objek-objek tersebut lewat di conveyor secara
random dan memprediksi ikan apa yang akan lewat selanjutnya.
 Akan ada dua kemungkinan: misalkan h1 mewakili ikan bandeng dan h2
mewakili ikan kakap.
 Jika sebelumnya diketahui bahwa jumlah ikan bandeng dan kakap yang
ditangkap sama banyak, maka peluang munculnya kedua ikan tersebut
sama besar.
5.1 Naïve Bayes Classifier

 Selanjutnya didefinisikan suatu Probabilitas Prior:


P(h1) : Peluang munculnya ikan bandeng
P(h2) : Peluang munculnya ikan kakap
 Probabilitas prior tersebut menyatakan perkiraan kita akan
jenis ikan apa yang muncul berikutnya sebelum ada ikan
yang benar-benar lewat di conveyor itu.
 Misal N adalah jumlah total ikan yang tertangkap, N1 dan N2
menyatakan jumlah ikan bandeng dan jumlah ikan kakap,
maka:
 P(h1) = N1 / N
 P(h2) = N2 / N
5.1 Naïve Bayes Classifier

Formula
Bentuk umum teorema Bayes:

atau

Dimana Probabilitas Bersyarat: P(x | h)


menyatakan peluang munculnya x jika diketahui h.
dan:
5.1 Naïve Bayes Classifier

Contoh Soal 1:
Diketahui suatu kondisi sbb:

Peluang munculnya cacat jika diambil produk dari pabrik A adalah:

Jika secara random diambil dan ternyata hasilnya cacat, maka


peluang barang yang terambil tsb dari pabrik A adalah:
5.1 Naïve Bayes Classifier

Latihan
Suatu generator telekomunikasi nirkabel mempunyai 3 pilihan tempat untuk
membangun pemancar sinyal yaitu di: Tengah kota, Kaki bukit , dan Tepi pantai,
dengan masing-masing mempunyai peluang 0.2, 0.3, dan 0.5.
Bila pemancar dibangun di tengah kota, peluang terjadi ganguan sinyal adalah
0.05. Bila pemancar dibangun di kaki bukit, peluang terjadinya ganguan sinyal
adalah 0.06. Bila pemancar dibangun di tepi pantai, peluang ganguan sinyal
adalah 0.08.
Pertanyaan:
A. Berapakah peluang terjadinya ganguan sinyal?
B. Bila diketahui telah terjadinya gangguan pada sinyal, berapa peluang bahwa
operator tsb ternyata telah membangun pemancar di tepi pantai?
5.1 Naïve Bayes Classifier

Jawaban:

Tengah Kota Kaki Bukit Tepi Pantai


Pasang 0.2 0.3 0.5
Gangguan Sinyal 0.05 0.06 0.08

A. P(GS) = 0.2x0.05 + 0.3x0.06 + 0.5x0.08 = 0.068


B. Peluang terpasang di Tepi Pantai jika terjadi gangguan sinyal:
5.1 Naïve Bayes Classifier

Contoh Soal 2:
Diketahui suatu tabel data sebagai berikut:
5.1 Naïve Bayes Classifier

Pembahasan:
Ubah tabel data menjadi seperti berikut:

On time
= 14
Late
=2
Very late
=3
Cancelled =1
5.1 Naïve Bayes Classifier

Sehingga:
5.1 Naïve Bayes Classifier

Contoh Soal 3:
Diketahui suatu tabel data sebagai berikut:

Bagaimana jika:
Cuaca Cerah, Temperatur Dingin, Kelembaban Tinggi, dan Angin
Besar?
5.1 Naïve Bayes Classifier
End of 5.1
5.2 Decision Tree Learning

Ide Dasar
 Metode pohon keputusan mengubah fakta yang sangat besar menjadi
pohon keputusan yg merepresentasikan aturan.
 Pohon keputusan berguna untuk mengeksplorasi data, menemukan
hubungan tersembunyi antara sejumlah calon variabel input dengan
sebuah variabel target.
 Sebuah model pohon keputusan terdiri dari sekumpulan aturan untuk
membagi sejumlah populasi yang heterogen menjadi lebih kecil, lebih
homogen dengan memperhatikan pada variabel tujuannya.
5.2 Decision Tree Learning

Formula:
n
Entropy ( S )   ( pi 2 log pi )
i 1

n
Si
Gain( S , A)  Entropy ( S )    Entropy ( Si )
i 1 S

S = Himpunan kasus
A = Atribut
n = Jumlah partisi atribut A
Si = Jumlah kasus pada partisi ke-i
S = Jumlah kasus dalam S
pi = Proporsi dari Si terhadap S
5.2 Decision Tree Learning

Contoh kasus:
Terdapat suatu data seperti berikut:

Akan dibuat sebuah pohon keputusan dari data di atas.


5.2 Decision Tree Learning

1. Menghitung nilai Entropy (S)


5.2 Decision Tree Learning

2. Menentukan atribut yang menjadi root

Dengan cara yang sama, didapat:


5.2 Decision Tree Learning

Terlihat dari perhitungan di atas bahwa nilai Information Gain


tertinggi adalah Pat. Oleh karena itu, Pat dijadikan Root pd pohon
keputusan.

Karena semua nilai pada PatSome = Yes, maka merupakan leaf


dengan nilai Yes. Begitu pula dengan PatNone yang memiliki nilai No,
sehingga merupakan leaf dengan nilai No.
5.2 Decision Tree Learning

Buat Latihan Ya
Buatlah pohon keputusan untuk data seperti berikut:
5.2 Decision Tree Learning

Ini jawabannya:
End of File

Anda mungkin juga menyukai