Anda di halaman 1dari 22

POHON

KEPUTUSAN
1.Febby Ayu K. D 1135010067
2.Rina Agus W. A 1135010075
3.Dwi Nurul Hidayati 1135010095
4.Khafintia Roofiqa P. 1135010104
5.Iffah Ainum Mawaddah 1135010112

Definisi Pohon Keputusan


Pohon keputusan adalah model prediksi
menggunakan struktur pohon atau struktur
berhirarki.
Pohon keputusan adalah salah satu metode
klasifikasi yang paling populer karena
mudah untuk diinterpretasi oleh manusia.
Pohon yang dalam analisis pemecahan
masalah pengambilan keputusan adalah
pemetaan mengenai alternatif-alternatif
pemecahan masalah yang dapat diambil
dari masalah tersebut.

Konsep Pohon Keputusan


Konsep dari pohon keputusan adalah
mengubah data menjadi pohon keputusan dan
aturan-aturan keputusan.

Data dalam pohon keputusan biasanya


dinyatakan dalam bentuk tabel dengan atribut
dan record. Atribut menyatakan suatu
parameter yang dibuat sebagai kriteria dalam
pembentukan tree

Manfaat Pohon Keputusan


Proses padapohon keputusanadalah mengubah
bentuk data (tabel) menjadi model pohon, mengubah
model pohon menjadi rule, dan menyederhanakan rule
Manfaat utama dari penggunaan pohon keputusan
adalah kemampuannya untuk mem-break down proses
pengambilan keputusan yang kompleks menjadi lebih
simpel sehingga pengambil keputusan akan lebih
menginterpretasikan solusi dari permasalahan.
Pohon Keputusan juga berguna untuk mengeksplorasi
data, menemukan hubungan tersembunyi antara
sejumlah calon variabel input dengan sebuah variabel
target.

Pohon keputusan merupakan himpunan aturan


IFTHEN. Setiap path dalam tree dihubungkan
dengan sebuah aturan, di mana premis terdiri
atas sekumpulan node-node yang ditemui, dan
kesimpulan dari aturam terdiri atas kelas yang
terhubung dengan leaf dari path.

Bagian awal dari pohon keputusan ini adalah


titik akar (root), sedangkan setiap cabang dari
pohon keputusan merupakan pembagian
berdasarkan hasil uji, dan titik akhir (leaf)

Pohon keputusan mempunyai 3


tipe simpul
1.Simpul akar, dimana tidak memiliki cabang yang
masuk dan memiliki cabang lebih dari satu,
terkadang tidak memiliki cabang sama sekali.
Simpul ini biasanya berupa atribut yang paling
memiliki pengaruh terbesar pada suatu kelas
tertentu.
2.Simpul internal, dimana hanya memiliki 1 cabang
yang masuk, dan memiliki lebih dari 1 cabang yang
keluar.
3.Simpul daun, atau simpul akhir dimana hanya
memiliki 1 cabang yang masuk, dan tidak memiliki
cabang sama sekali dan menandai bahwa simpul
tersebut merupakan label kelas.

Kelebihan Pohon Keputusan


Pohon keputusan banyak digunakan dalam proses data
mining karena memiliki beberapa kelebihan, yaitu:
1. Tidak memerlukan biaya yang mahal saat membangun
algoritma.
2. Mudah untuk diinterpetasikan.
3. Mudah mengintegrasikan dengan sistem basis data.
4. Memiliki nilai ketelitian yang lebih baik.
5. Dapat menemukan hubungan tak terduga dan suatu
data.
6. Dapat menggunakan data pasti/mutlak atau data
kontinu.
7. Mengakomodasi data yang hilang.

Kekurangan pohon keputusan


Terjadi overlap terutama ketika kelas-kelas
dan criteria yang digunakan jumlahnya
sangat banyak.
Pengakumulasian jumlah eror dari setiap
tingkat dalam sebuah pohon keputusan
yang besar.
Hasil kualitas keputusan yang didapatkan
dari metode pohon keputusan sangat
tergantung pada bagaimana pohon
tersebut didesain.

Basic concept

Tahapan pembuatan decision


tree

Penetapan nilai
payoff

Penetapan nilai
kemungkinan/pelu
ang

Pohon Keputusan ID3


Iterative Dichotomiser 3 (ID3) merupakan
sebuah metode yang digunakan untuk
membuat pohon keputusan yang telah
dikembangkan oleh J. Ross Quinlan sejak tahun
1986. Algoritma pada metode ini menggunakan
konsep dari entropy informasi. Algoritma ini
melakukan pencarian secara rakus/menyeluruh
(greedy) pada semua kemungkinan pohon
keputusan.

Langkah kerja Algoritma ID3


1. Hitung Entropy dan Information gain dari
setiap atribut dengan menggunakan rumus:

Dimana:
S = ruang (data) sample yang digunakan
untuk training.
P+ = jumlah yang bersolusi positif
(mendukung) pada data sample untuk kriteria
tertentu.
P- = jumlah yang bersolusi negatif (tidak
mendukung) pada data sample untuk kriteria
tertentu.

Dimana:
S = ruang (data) sample yang digunakan
untuk training.
A = atribut.
V = suatu nilai yang mungkin untuk atribut A.
Nilai(A) = himpunan yang mungkin untuk
atribut A.
|Sv| = jumlah sample untuk nilai V.
|S| = jumlah seluruh sample data.
Entropy(Sv) = entropy untuk sample-sample
yang memiliki nilai V.
Tujuan dari pengukuran nilai information gain
adalah untuk memilih atribut yang akan
dijadikan cabang pada pembentukan pohon

2. Bentuk simpul yang berisi atribut tersebut.


3. Ulangi proses perhitungan information gain
yang akan terus dilaksanakan sampai semua
data telah termasuk dalam kelas yang sama.
Atribut yang telah dipilih tidak diikutkan lagi
dalam perhitungan nilai information gain.

sample data yang digunakan oleh ID3 memiliki


beberapa syarat, yaitu:

- Deskripsi atribut-nilai. Atribut yang sama harus


mendeskripsikan tiap contoh dan memiliki jumlah nilai
yang sudah ditentukan.
- Kelas yang sudah didefinisikan sebelumnya. Suatu
atribut contoh harus sudah didefinisikan, karena mereka
tidak dipelajari oleh ID3.
- Kelas-kelas yang diskrit. Kelas harus digambarkan
dengan jelas. Kelas yang kontinu dipecah-pecah
menjadi kategori-kategori yang relatif, misalnya saja
metal dikategorikan menjadi hard, quite hard, flexible,
soft, quite soft.
- Jumlah contoh (example) yang cukup. Karena
pembangkitan induktif digunakan, maka dibutuhkan
test case yang cukup untuk membedakan pola yang
valid dari peluang suatu kejadian.

WEKA
WEKA (Waikato Environment for Knowledge
Analysis) adalah suatu perangkat lunak
pembelajaran mesin yang populer ditulis dengan
Java, yang dikembangkan di Universitas Waikato
di selandia baru. WEKA adalah perangkat lunak
gratis yang tersedia di bawah GNU General Public
License. Pada WEKA menyediakan penggunaan
teknik klasifikasi menggunakan pohon keputusan
dengan algoritma J48. Teknik klasifikasi dan
algoritma yang digunakan di WEKA disebut
classifier.

Contoh kasus

Solusi kasus

Dasar
pengambilan
keputusan

EMV kasus

Anda mungkin juga menyukai