Anda di halaman 1dari 30

ALGORITMA C 4.

5
KELOMPOK 1
1. ALFANNISA ANNURULLAH FAJRIN (141321065)
2. ANNISAK IZHATY JAMHUR (141321067)
3. HARIYADI (141321075)
4. NURUL AZWANTI (141321084)

Mata Kuliah : Teknologi Database


Dosen : Dr. Sarjon Defit, M.Kom.,M.Sc

6/8/15

23C

Pohon Keputusan
Dasar algoritma C4.5 adalah pembentukan
pohon keputusan (decision tree).
Decision tree merupakan salah satu
metode klasifikasi yang menggunakan
representasi struktur pohon
(tree) dimana setiap node merepresentasikan atribut, cabangnya merepresentasikan
nilai
dari
atribut,
dan
daun
merepresentasikan kelas
6/8/15

23C

Konsep Pohon Keputusan


DATA

DECISION
TREE

RULE

mengubah bentuk data (tabel) menjadi


model pohon, mengubah model pohon
menjadi rule, dan menyederhanakan rule

6/8/15

23C

Model Pohon Keputusan

6/8/15

23C

Algoritma C 4.5
Salah satu algoritma induksi pohon
keputusan yaitu ID3 (Iterative Dichotomiser
3).
ID3 dikembangkan oleh J. Ross Quinlan.
Dalam prosedur algoritma ID3, input
berupa sampel training, label training dan
atribut.
Algoritma
C4.5
merupakan
pengembangan dari ID3.
6/8/15

23C

23C

Algoritma C 4.5 :
1. Pilih atribut sebagai akar
2. Buat cabang untuk tiap-tiap nilai
3. Bagi kasus di dalam cabang
4. Ulangi Proses untuk setiap cabang sampai
semua kasus pada cabang memiliki kelas
yang sama
6/8/15

23C

Untuk memilih atribut akar, didasarkan pada


nilai GAIN tertinggi dari atribut-atribut yang
ada.
Untuk mendapatkan nilai GAIN, harus
ditentukan terlebih dahulu nilai ENTROPY

6/8/15

23C

Contoh Kasus
PELAMAR

6/8/15

IPK

PSIKOLOGI

WAWANCARA

DITERIMA

P1

Bagus

Tinggi

Baik

Ya

P2

Bagus

Sedang

Baik

Ya

P3

Bagus

Sedang

Buruk

Ya

P4

Bagus

Rendah

Buruk

Tidak

P5

Cukup

Tinggi

Baik

Ya

P6

Cukup

Sedang

Baik

Ya

P7

Cukup

Sedang

Buruk

Ya

P8

Cukup

Rendah

Buruk

Tidak

P9

Kurang

Tinggi

Baik

P10

Kurang

Sedang

Buruk

P11

Kurang

Rendah

Baik

23C

Ya
Tidak
Ya

Solusi :
a. Hitung Jumlah Kasus
b. Hitung Jumlah Keputusan Ya
c. Hitung Jumlah Keputusan Tidak
d. Hitung :
- Entropy (IPK),
- Entropy (Psikologi), dan
- Entropy (Wawancara)

6/8/15

23C

NODE

TIDAK(S
JUMLAH KASUS(S)
1)

ENTROP
Y

YA(S2)

1Total

11

*IPK

Bagus

Cukup

Kurang

*Psikologi

Tinggi

Sedang

Rendah
*Wawancar
a

6/8/15

Baik

Buruk

23C

GAIN

10

Rumus Entropy :

Keterangan :
S = Himpunan Kasus
n = Jumlah Partisi S
pi = Proporsi dari Si terhadap S
6/8/15

23C

11

Entropy (IPK)

6/8/15

23C

12

Entropy (Psikologi)

Entropy (Wawancara)

6/8/15

23C

13

e. Hitung :
- Gain (Total, IPK)
- Gain (Total, Psikologi)
- Gain (Total, Wawancara)

6/8/15

23C

14

Rumus Gain :

Keterangan :
S = Himpunan Kasus
A = Atribut
n = Jumlah Partisi Atribut A
| Si | = Jumlah Kasus pada partisi ke-i
| S | = Jumlah Kasus dalam S
6/8/15

23C

15

6/8/15

23C

16

NODE

1Total

6/8/15

TIDAK(S
JUMLAH KASUS(S)
1)
11

YA(S2)

ENTROP
Y
8

0,8454
0,00480
9

*IPK

Bagus

0,8113

Cukup

0,8113

Kurang

0,9187

Tinggi

Sedang

0,722

Rendah
*Wawancar
a

0,26666
4

*Psikologi

Baik

Buruk

23C

GAIN

0,9183
0,40403

6
0

0,971

17

Gain Tertinggi
ialah WAWANCARA
dan akan menjadi
node akar

Pohon Keputusan Node 1 (root node)


6/8/15

23C

18

Dari tabel terlihat, dari 6 pelamar


dengan Wawancara Baik, semua
memiliki kelas "Ya (Diterima),
sehingga fungsi ID3 akan berhenti,
dan membentukkesimpulan bahwa
seluruh pelamar dengan nilai
Wawancara Baik akan diterima di
perusahaan.
6/8/15

23C

19

PELAMAR

IPK

PSIKOLOGI WAWANCARA DITERIMA

P3

Bagus

Sedang

Buruk

Ya

P4

Bagus

Rendah

Buruk

Tidak

P7

Cukup

Sedang

Buruk

Ya

P8

Cukup

Rendah

Buruk

Tidak

P10

Kurang

Sedang

Buruk

Tidak

6/8/15

23C

20

e. Hitung :
- Entropy (Wawancara-Buruk)
- Entropy (IPK)
- Entropy (Psikologi)

6/8/15

23C

21

Entropy (IPK)

6/8/15

23C

22

Entropy (Psikologi)

6/8/15

23C

23

f. Hitung :
- Gain (Wawancara-Buruk,IPK)
- Gain (Wawancara-Buruk,Psikologi)

6/8/15

23C

24

Node

1.1

6/8/15

JumlahKasus(S) Tidak(S1)

Ya(S2)

Entropy

Gain

Entropy
WawancaraBuruk

*IPK

Bagus

Cukup

Kurang

*Psikologi

Tinggi

Sedang

0,9183

Rendah

23C

0,971
0,171

0,42002

25

Pohon Keputusan Analisis Node 1.1


6/8/15

23C

26

Karena nilai "Tinggi" = 0, maka perlu


dibuat 1 simpul daun (leaf node,
simpul yang tidak punya anak
dibawahnya) dengan label yang
paling
sering
muncul
pada
Sampelburuk yaitu tidak.

6/8/15

23C

27

PELAMAR

IPK

WAWANCAR
PSIKOLOGI
A
DITERIMA

P3

Bagus

Sedang

Buruk

Ya

P7

Cukup

Sedang

Buruk

Ya

P10

Kurang

Sedang

Buruk

Tidak

6/8/15

23C

28

Pohon Keputusan Akhir


6/8/15

23C

29

TERIMA KASIH

6/8/15

23C

30

Anda mungkin juga menyukai