5
KELOMPOK 1
1. ALFANNISA ANNURULLAH FAJRIN (141321065)
2. ANNISAK IZHATY JAMHUR (141321067)
3. HARIYADI (141321075)
4. NURUL AZWANTI (141321084)
6/8/15
23C
Pohon Keputusan
Dasar algoritma C4.5 adalah pembentukan
pohon keputusan (decision tree).
Decision tree merupakan salah satu
metode klasifikasi yang menggunakan
representasi struktur pohon
(tree) dimana setiap node merepresentasikan atribut, cabangnya merepresentasikan
nilai
dari
atribut,
dan
daun
merepresentasikan kelas
6/8/15
23C
DECISION
TREE
RULE
6/8/15
23C
6/8/15
23C
Algoritma C 4.5
Salah satu algoritma induksi pohon
keputusan yaitu ID3 (Iterative Dichotomiser
3).
ID3 dikembangkan oleh J. Ross Quinlan.
Dalam prosedur algoritma ID3, input
berupa sampel training, label training dan
atribut.
Algoritma
C4.5
merupakan
pengembangan dari ID3.
6/8/15
23C
23C
Algoritma C 4.5 :
1. Pilih atribut sebagai akar
2. Buat cabang untuk tiap-tiap nilai
3. Bagi kasus di dalam cabang
4. Ulangi Proses untuk setiap cabang sampai
semua kasus pada cabang memiliki kelas
yang sama
6/8/15
23C
6/8/15
23C
Contoh Kasus
PELAMAR
6/8/15
IPK
PSIKOLOGI
WAWANCARA
DITERIMA
P1
Bagus
Tinggi
Baik
Ya
P2
Bagus
Sedang
Baik
Ya
P3
Bagus
Sedang
Buruk
Ya
P4
Bagus
Rendah
Buruk
Tidak
P5
Cukup
Tinggi
Baik
Ya
P6
Cukup
Sedang
Baik
Ya
P7
Cukup
Sedang
Buruk
Ya
P8
Cukup
Rendah
Buruk
Tidak
P9
Kurang
Tinggi
Baik
P10
Kurang
Sedang
Buruk
P11
Kurang
Rendah
Baik
23C
Ya
Tidak
Ya
Solusi :
a. Hitung Jumlah Kasus
b. Hitung Jumlah Keputusan Ya
c. Hitung Jumlah Keputusan Tidak
d. Hitung :
- Entropy (IPK),
- Entropy (Psikologi), dan
- Entropy (Wawancara)
6/8/15
23C
NODE
TIDAK(S
JUMLAH KASUS(S)
1)
ENTROP
Y
YA(S2)
1Total
11
*IPK
Bagus
Cukup
Kurang
*Psikologi
Tinggi
Sedang
Rendah
*Wawancar
a
6/8/15
Baik
Buruk
23C
GAIN
10
Rumus Entropy :
Keterangan :
S = Himpunan Kasus
n = Jumlah Partisi S
pi = Proporsi dari Si terhadap S
6/8/15
23C
11
Entropy (IPK)
6/8/15
23C
12
Entropy (Psikologi)
Entropy (Wawancara)
6/8/15
23C
13
e. Hitung :
- Gain (Total, IPK)
- Gain (Total, Psikologi)
- Gain (Total, Wawancara)
6/8/15
23C
14
Rumus Gain :
Keterangan :
S = Himpunan Kasus
A = Atribut
n = Jumlah Partisi Atribut A
| Si | = Jumlah Kasus pada partisi ke-i
| S | = Jumlah Kasus dalam S
6/8/15
23C
15
6/8/15
23C
16
NODE
1Total
6/8/15
TIDAK(S
JUMLAH KASUS(S)
1)
11
YA(S2)
ENTROP
Y
8
0,8454
0,00480
9
*IPK
Bagus
0,8113
Cukup
0,8113
Kurang
0,9187
Tinggi
Sedang
0,722
Rendah
*Wawancar
a
0,26666
4
*Psikologi
Baik
Buruk
23C
GAIN
0,9183
0,40403
6
0
0,971
17
Gain Tertinggi
ialah WAWANCARA
dan akan menjadi
node akar
23C
18
23C
19
PELAMAR
IPK
P3
Bagus
Sedang
Buruk
Ya
P4
Bagus
Rendah
Buruk
Tidak
P7
Cukup
Sedang
Buruk
Ya
P8
Cukup
Rendah
Buruk
Tidak
P10
Kurang
Sedang
Buruk
Tidak
6/8/15
23C
20
e. Hitung :
- Entropy (Wawancara-Buruk)
- Entropy (IPK)
- Entropy (Psikologi)
6/8/15
23C
21
Entropy (IPK)
6/8/15
23C
22
Entropy (Psikologi)
6/8/15
23C
23
f. Hitung :
- Gain (Wawancara-Buruk,IPK)
- Gain (Wawancara-Buruk,Psikologi)
6/8/15
23C
24
Node
1.1
6/8/15
JumlahKasus(S) Tidak(S1)
Ya(S2)
Entropy
Gain
Entropy
WawancaraBuruk
*IPK
Bagus
Cukup
Kurang
*Psikologi
Tinggi
Sedang
0,9183
Rendah
23C
0,971
0,171
0,42002
25
23C
26
6/8/15
23C
27
PELAMAR
IPK
WAWANCAR
PSIKOLOGI
A
DITERIMA
P3
Bagus
Sedang
Buruk
Ya
P7
Cukup
Sedang
Buruk
Ya
P10
Kurang
Sedang
Buruk
Tidak
6/8/15
23C
28
23C
29
TERIMA KASIH
6/8/15
23C
30