Anda di halaman 1dari 21

Algoritma

C4.5
PRESENTATION

Diansesa Rahmatika
1 2 3 4
Apa itu ? Keunggulan Tahapan Studi Kasus
Definisi dari
Keunggulan Algoritma Pohon Keputusan Contoh kasus
C4.5
Klasifikasi C4.5 Tahapan pohon
keputusan (decission
tree)
Apa itu algoritma
1 Klasifikasi C4.5 ?

algoritma yang digunakan untuk membentuk pohon


keputusan (Decision Tree). Pohon keputusan
merupakan metode klasifikasi dan prediksi yang
terkenal.

Pohon keputusan berguna untuk mengekspolari


data, menemukan hubungan tersembunyi antara
sejumlah calon variabel input dengan sebuah
variabel target.
Keunggulan
2 Algoritma C4.5

Mampu menangani atribut yang kosong


(Missing Value)

Nilai kosong pada sebuah dataset wajib kita isi


terlebih dahulu sebelum diproses untuk tahap
machine learning atau bentuk kedalam sebuah
model decission tree
Contoh

Data yang kosong diisi dengan data yang


paling dominan
Tahapan Siapkan dataset

Pohon Pilih atribut sebagai akar


Keputusan
Algoritma Buat cabang untuk masing-masing
nilai

C4.5
Bagi kasus ke dalam cabang

Ulangi proses 2-4 kali untuk semua


cabang sampai setiap kasus pada
cabang memiliki kelas yang sama
Siapkan dataset
Pilih atribut sebagai akar
Memilih atribut sebagai akar,
didasarkan pada nilai gain tertinggi
dari atribut-atribut yang ada.

Menghitung gain menggunakan


rumus :

RUMUS 1 :
Pilih atribut sebagai akar

RUMUS 2 :
Membuat cabang

Menghitung jumlah kasus untuk kepuasan YES, jumlah


keputusan NO, danENTROPY dari semua kasus dan kasus yang
dibagi berdasarkan atribut OUTLOOK, TEMPERATURE, HUMIDITY,
WINDY.
Setelah itu lakukan perhitungan gain untuk masing-masing
atribut.
Hasil perhitungan Gain
Perhitungan Gain
Hasil Perhitungan Gain

Atribut dengan Gain tertinggi HUMIDITY yaitu sebesar 0.37.


Dengan demikian HUMIDITY menjadi node akar.
Ada 2 nilai atribut dari HUMIDITY yaitu HIGH dan NORMAL.
Dari kedua nilai atribut tersebut, nilai atribut NORMAL
sudah mengklasifikasikan kasus menjadi 1, yaitu
keputusannya YES, sehingga tidak perlu di lakukan
perhitungan lebih lanjut, tetapi untuk nilai atribut HIGH
masih perlu dilakukan perhitungan lagi.
Decission Tree

HUMIDITY

N
H

O
IG

RM
H

AL
1.1 ? YES
Hasil Perhitungan Gain

Menghitung jumlah kasus, jumlah kasus YES, jumlah kasus


keputusan NO, dan Entropy dari berdasarkan atribut
OUTLOOK, TEMPERATURE dan WINDY yang dapat menjadi
node akar dari atribut HIGH.
Setelah itu lakukan penghitungan Gain untuk masing-
masing atribut.
Node 1.1
Node 1.1

Diketahui bahwa atribut dengan Gain tertinggi adalah


OUTLOOK yaitu sebesar 0,67.
Dengan demikian OUTLOOK dapat menjadi node cabang
dari nilai atribut HIGH.
Ada 3 nilai atribut dari OUTLOOK, yaitu :
CLOUDY, RAINY dan SUNNY.
Decission Tree HUMIDITY

N
H

O
IG

RM
H

AL
1.1
Outlook
YES

CLOUDY RAINY SUNNY

YES 1.1.2 NO
Node 1.1.2
HUMIDITY
Decission Tree

N
H

O
IG

RM
H

AL
1.1
Outlook YES
CLOUDY RAINY SUNNY

1.1.2
YES Windy NO

tr
ls

ue
fa

YES NO
Terimakasih
Algoritma C4.5

Diansesa Rahmatika

Anda mungkin juga menyukai