Anda di halaman 1dari 11

JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Metode Iterative Dichotomizer 3 ( ID3 ) Untuk


Penyeleksian Penerimaan Mahasiswa Baru
Wahyudin
Program Pendidikan Ilmu Komputer,
Universitas Pendidikan Indonesia

Abstrak dan akan memberikan dampak positif bagi


universitas.
Konsep pohon merupakan salah satu
konsep teori graf yang paling penting. Dalam pengambilan keputusan
Pemanfaatan struktur pohon dalam kehidupan penerimaan mahasiswa baru ini dibatasi
sehari-hari adalah untuk menggambarkan dengan memperhatikan tiga atribut yaitu nilai
hierarki dan memodelkan persoalan, SPMB, UAN, dan psikotest. Metode yang
contohnya pohon keputusan (decision tree).
digunakan adalah metode Decision Tree
Iterative dichotomiser 3 ( ID3 ) merupakan
suatu metode dalam learning yang akan menggunakan ID3 (Iterative Dichotomiser 3).
membangun sebuah pohon keputusan untuk Pengambilan keputusan ini dapat memberikan
pemodelan dalam mencari solusi dari data yang lengkap sehingga akan lebih mudah
persoalan. Dalam jurnal ini akan dibahas bagi pihak universitas menentukan
pemakaian pohon keputusan dalam bidang seseorang/peserta SPMB (Seleksi
pendidikan , yaitu dalam hal penerimaan
Penerimaan Mahasiswa Baru) diterima atau
mahasiswa baru. Kegiatan analisis
kemahasiswaan diperlukan untuk tidak di universitas tersebut.
mendapatkan keputusan yang bersifat
menguntungkan demi maju dan PERMASALAHAN
berkembangnya suatu universitas dan analisis
penerimaan mahasiswa baru tersebut dapat Permasalahan yang diangkat adalah
dilakukan melalui berbagai metode, salah memperoleh pengetahuan dan
satunya dengan decision tree menggunakan mengidentifikasi mahasisiwa baru yang akan
ID3 (Iterative Dichotomiser 3). Jurnal ini akan diterima disebuah universitas sehingga akan
memperlihatkan pemakaian pohon keputusan
memberikan kemudahan bagi pihak
untuk memudahkan pengambilan keputusan
penerimaan mahasiswa baru dalam suatu universitas untuk menentukan siapa saja yang
universitas. berhak masuk atau diterima berdasarkan
kriteria tertentu dalam hal ini nilai SPMB, nilai
Kata kunci : Decision tree, Iterative UAN (Ujian Akhir Nasional) dan nilai psikotest.
Dichotomiser 3 Metode solusi yang digunakan adalah
membentuk pohon keputusan dengan
algoritma Iterative Dichotomicer 3 (ID3).
Pendahuluan
Decision tree learning
Mahasiswa merupakan input bagi
Universitas yang sangat penting. Kualitas Decision tree learning adalah salah satu
perguruan tinggi salah satunya dilihat dari metode belajar yang sangat populer dan
prosentase mahasiswa yang berminat masuk banyak digunakan secara praktis. Metode ini
ke perguruan tinggi dengan yang diterima di merupakan metode yang berusaha
perguruan tinggi tersebut. Pengambilan menemukan fungsi-fungsi pendekatan yang
keputusan penerimaan mahasiswa baru bernilai diskrit dan tahan terhadap data-data
merupakan kebijakan yang sangat penting yang terdapat kesalahan (noisy data) serta
demi kemajuan dan berkembangnya suatu mampu mempelajari ekspresi-ekspresi
perguruan tinggi, Agar kegiatan pendidikan disjunctive (ekspresi OR). Iterative
yang akan dilaksanakan maupun yang sedang Dychotomizer version 3 (ID3) adalah salah
berjalan tetap berada pada jalur yang benar satu jenis Decision tree yang sangat populer.

(5)
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Konsep Decision Tree Algoritma ID3


Mengubah data menjadi pohon keputusan
Iterative Dichotomicer 3 (ID3) adalah
(decision tree) dan aturan-aturan keputusan
algoritma decision tree learning (algoritma
(rule)
pembelajaran pohon keputusan) yang paling
DATA DECISION TREE RULE dasar. Algoritma ini melakukan pencarian
secara rakus /menyeluruh (greedy) pada
decision tree adalah struktur flowcart semua kemungkinan pohon keputusan.
yang mempunyai tree(pohon), dimana setiap
simpul internal menandakan suatu tes Salah satu algoritma induksi pohon
atribut,setiap cabang merepresentasikan hasil keputusan yaitu ID3 (Iterative Dichotomiser 3).
tes, dan simpul daun merepresentasikan kelas ID3 dikembangkan oleh J. Ross Quinlan.
atau distribusi kelas. alur pada decision tree Algoritma ID3 dapat diimplementasikan
ditelusuri dari simpul ke akar ke simpul daun menggunakan fungsi rekursif (fungsi yang
yang memegang prediksi kelas untuk contoh memanggil dirinya sendiri). Algoritma ID3
tersebut. decision tree mudah untuk dikonversi berusaha membangun decision tree (pohon
ke aturan klasifikasi (classification rule). keputusan) secara top-down (dari atas ke
Konsep data dalam decision tree dinyatakan bawah), mulai dengan pertanyaan : “atribut
dalam bentuk tabel dengan atribut dan record. mana yang pertama kali harus dicek dan
diletakkan pada root?” pertanyaan ini dijawab
POHON ( TREE ) dengan mengevaluasi semua atribut yang ada
dengan menggunakan suatu ukuran statistik
Pohon merupakan sebuah graf (yang banyak digunakan adalah information
terhubung yang tidak mengandung gain) untuk mengukur efektivitas suatu atribut
sirkuit.konsep pohon (tree) dalam teori graf dalam mengklasifikasikan kumpulan sampel
merupakan konsep yang sangat penting, data.
karena terapannya diberbagai bidang ilmu.
Oleh karenanya antara pohon (tree) sangat Decision Tree adalah sebuah struktur
erat hubungannya dengan teori graf. pohon, dimana setiap node pohon
merepresentasikan atribut yang telah diuji,
Definisi pohon adalah graf tak berarah setiap cabang merupakan suatu pembagian
terhubung yang tidak mengandung sirkuit, hasil uji, dan node daun (leaf)
menurut definisi tersebut, ada dua sifat penting merepresentasikan kelompok kelas tertentu.
pada pohon yaitu terhubung dan tidak Level node teratas dari sebuah decision tree
mengandung sirkuit. adalah node akar (root) yang biasanya berupa
atribut yang paling memiliki pengaruh terbesar
Pohon (tree) merupakan graf dimana pada suatu kelas tertentu.
dua simpul memiliki paling banyak satu
lintasan yang menghubungkannya. Pohon Entropy dan Information Gain
seringkali memiliki akar . karena setiap simpul
pada pohon hanya memiliki satu lintasan Sebuah obyek yang diklasifikasikan dalam
akses dari setiap simpul lainnya, maka tidak pohon harus dites nilai entropinya. Entropy
mungkin bagi sebuah lintasan untuk adalah ukuran dari teori informasi yang dapat
membentuk simpul (loop) atau siklus (cycle) mengetahui karakteristik dari impuryt ,dan
yang secara berkesinambungan melalui homogenity dari kumpulan data. Dari nilai
serangkaian simpul. entropy tersebut kemudian dihitung nilai
information gain (IG) masing-masing atribut.

Entropy(S) = - p+ log2p + -p -log2p-

dimana :

(6)
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

• S adalah ruang (data) sample yang Pembahasan


digunakan untuk training.
Data penerimaan Mahasiswa
• P+ adalah jumlah yang bersolusi
positif (mendukung) pada data sample Terdapat sampel 11 orang mahasiswa yang
untuk kriteria tertentu. mengikuti seleksi penerimaan mahasiswa baru
(SPMB) dengan memperhatikan 3 parameter /
• P+ adalah jumlah yang bersolusi
atribut penilaian.
negatif (tidak mendukung) pada data
sample untuk kriteria tertentu.Dari Tiga parameter / atribut yaitu : Nilai SPMB
rumus entropy diatas dapat dikelompokkan dalam 3 kategori (tinggi,
disimpulkan bahwa definisi entropy (S) sedang, rendah )
adalah jumlah bit yang diperkirakan
dibutuhkan untuk dapat mengekstrak • UAN dikelompokkan dalam 3 kategori
suatu kelas (+ atau -) dari sejumlah (bagus, cukup, kurang )
data acak pada suatu ruang sampel S.
Entropy bisa dikatakan sebagai • Psikotest dikelompokkan dalam 2
kebutuhan bit untuk menyatakan suatu kategori (baik dan buruk)
kelas. Semakin kecil nilai entropy
Peserta Diterima
maka semakin baik digunakan dalam Nilai SPMB UAN Psikotest
SPMB
mengekstraksi suatu kelas.
P1 Tinggi Bagus Baik Ya
Panjang kode untuk menyatakan
informasi secara optimal adalah –log2p bits P2 Tinggi Cukup Baik Ya
untuk messages yang mempunyai probabilitas
p. Sehingga jumlah bit yang diperkirakan untuk P3 Tinggi Cukup Buruk Ya
mengekstraksi S ke dalam kelas adalah : -
p+log2 p+ - p- log2 p- P4 Tinggi Kurang Buruk tidak

Information Gain P5 Sedang Bagus Baik Ya

setelah mendapat nilai entropy untuk suatu P6 Sedang Cukup Baik Ya


kumpulan data, maka kita dapat mengukur
efektivitas suatu atribut dalam P7 Sedang Cukup Buruk Ya
mengklasifikasikan data. Ukuran efektifitas ini
disebut information gain. Secara matematis, P8 Sedang Kurang Buruk tidak
infomation gain dari suatu atribut A,dituliskan
sebagai berikut : P9 Rendah Bagus Baik Ya

P10 Rendah Cukup Buruk tidak


Gain(S,A) = Entropy(S) – Entropy(Sv),

dimana : P11 Rendah Kurang Baik Ya

A : atribut

V : suatu nilai yang mungkin untuk atribut A Untuk data yang lengkap seharusnya
terdapat 3 x 3 x 2 = 18 kombinasi sampel data,
Values (A) : himpunan yang mungkin untuk
atribut A tetapi dalam tabel diatas hanya terdapat 11
sampel data artinya masih ada 7 sampel data
|Sv| : jumlah sampel untuk nilai v lain yang belum diketahui. Contoh : [ nilai
SPMB ‘Tinggi’, nilai UAN ‘Kurang’ dan
|S| : jumlah seluruh sampel data
Psikotest ‘Buruk’ ]. Kita tidak bisa menentukan
Entropy(Sv): entropy untuk sampel-sampel peserta SPMB tersebut diterima atau tidak.
yang memilki nilai v
(7)
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Dengan Decision Tree menggunakan


algoritma ID3 aturan atau data yang belum | |
∑ ( , , ) | ( )
diketahui bisa kita temukan sehingga kita bisa |
menentukan seseorang peserta tes diterima
atau tidak. = 0,8454 – (4/11)0,8113 – (3/11) 0,9183

ANALISIS INFORMATION GAIN = 0,8454 – 0,2950 – 0,2950 – 0,25044

pada data penerimaan mahasiswa, jumlah = 0,0049


kelas adalah 2, yaitu : ‘ya’ dan ‘tidak’ (c = 2 ).
Jumlah sampel kelas 1 (‘ya’) adalah 8 dan Values( UAN) = Bagus, Cukup, Kurang
jumlah sampel untuk kelas 2 (‘tidak’) adalah 3 .
jadi p1 = 8 dan p2 = 3. Dengan demikian SBagus = [ 3+, 0- ] , | SBagus | = 3
entropy untuk kumpulan sampel data S adalah
:
SCukup = [ 4+, 1- ] , | SCukup | = 5
Entropy (S) = - ( 8/11) log2 ( 8/11) –
SKurang = [ 1+, 2- ] , | SKurang | = 3
(3/11) log2 (3/11)
Entropy (SBagus) = (-3/3) log2 (3/3) - (0/3) log2
= 0,8454 (0/3)

Dari tabel diatas misal atribut Diterima=’ya’ =0


merupakan sampel (+), dan atribut
Diterima=’Tidak’ merupakan sampel (-) , dari menunjukkan entropy minimum karena jumlah
sampel data pada tabel didapat : sampel pada salah satu kelas adalah = 0
(keberagaman data minimum).
Values (nil.SPMB) = Tinggi, Sedang, Rendah
Entropy (SCukup) = (-4/5) log2 (4/5) - (1/5) log2
S = [ 8+ , 3- ] , | S | = 11 (1/5) = 0,72192

STinggi = [ 3+ , 1- ] , | STinggi | = 4 Entropy (SKurang) = (-1/3) log2 (1/3) - (2/3) log2


(2/3) = 0,91829
Ssedang = [ 3+ , 1- ] , | Ssedang | = 4
IG (S, UAN) = Entropy ( S) –
SRendah = [ 2+, 1- ] , | SRendah | = 3 | |
∑ ( , , ) | ( )
|
Hitung entropy STinggi , Ssedang , SRendah dan
Information Gain Untuk nilai SPMB adalah : = 0,8454 – 0 – (5/11) 0,7219 –
(3/11) 0,9183
Entropy (S) = 0,8454
= 0,8454 – 0,32814 – 0,25044
Entropy (STinggi) = (-3/4) log2 (3/4) - (1/4) log2
(1/4) = 0,8113 = 0,26682

Entropy (Ssedang ) = (-3/4) log2 (3/4) - (1/4) log2 SBaik = [ 6+, 0- ] , | SBaik | = 6
(1/4) = 0,8113
SBuruk = [ 2+, 3- ] , | SBuruk | = 5
Entropy (SRendah) = (-2/3) log2 (2/3) - (1/3) log2
(1/3) = 0,9183 Entropy (SBaik) = (-6/6) log2 (6/6) – (0/6) log2
(0/0)
• Information Gain (S, Nil.SPMB)
= 0 ( kebergaman data
=Entropy(S)– minimum )
(8)
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Entropy (SBuruk) = (-2/5) log2 (2/5) – (3/5) log2 Memanggil fungsi ID3 dengan kumpulan
(3/5) sampel berupa sampel baik [6+, 0-] atribut
target = ‘Diterima’ dan kumpulan atribut (nilai
= 0,97094 SPMB, UAN). Semua sampel baik termasuk
dalam kelas “ya” maka fungsi ini akan berhenti
IG ( S, Psikotest ) = 0,8454 – 0 – (5/11) 0,97094 dan mengembalikan satu simpul tunggal Root
dengan label ‘ya’ .
= 0,8454 – 0,44134
Rekursi level 0 , Itersi ke 2
= 0,40406
Pada proses rekursi level 0 , iterasi ke 1,
Dari perhitugan diatas didapat nilai Information sudah dilakukan pengecekan untuk atribut
Gain dari ketiga atribut ( Nil.SPMB, UAN, dan ‘Psikotest’ dengan nilai ‘baik’. Untuk nilai
Psikotest ) ‘buruk’, terdapat 5 sampel, berarti Sampelburuk
tidak kosong. Sehingga, perlu memanggil
IG ( S, Nil.SPMB) = 0,0049 fungsi ID3 dengan kumpulan sampel berupa
Sampelburuk = [ 2+, 3- ], AtributTarget
IG ( S, UAN) = 0,26682 =’Diterima’, dan KumpulanAtribut = { nil.SPMB,
UAN }.
IG ( S, Psikotest) = 0,40406
Rekursi level 1 iterasi ke 2
Dari ketiga nilai Information Gain diatas Gain (
S, Psikotest ) adalah yang terbesar sehingga Memanggil fungsi ID3 dengan kumpulan
atribut Psikotest merupakan the best classifier sampel berupa Sampelburuk = [2+, 3-],
dan harus diletakkan sebagai root. AtributTarget = ‘Diterima’, dan
KumpulanAtribut = { nil.SPMB, Psikotest }.
Rekursi Level 0 iterasi ke-1
Pada tahap ini dilakukan perhitungan
Memanggil fungsi ID3 dengan kumpulan information gain untuk atribut nil.SPMB dan
sampel berupa semua sampel data = [ 8+ , 3- UAN . tetapi kumpulan sampel yang
]; diperhitungkan adalah Sampelburuk dengan 5
sampel data, yaitu [ 2+ , 3- ]. Dengan kata lain
Atribut target = ‘Diterima’ dan kumpulan atribut
[nil.SPMB, UAN, Psikotest] S = Sampelburuk.

Hitung entropy dan Information Gain untuk Value (nil.SPMB) = Tinggi, Sedang, rendah
menentukan the best classifier dan
S = Sampelburuk = [2+, 3- ] , | S | = 5
meletakkannya sebagai root.
STinggi = [1+, 1-] , | STinggi | = 2
Dari penjelasan sebelumnya didapat
nilai Information Gain (S, Psikotest ) sebagai
SSedang = [1+, 1-] , | SSedang | = 2
the best classifier karena IG nya terbesar.
Setelah mendapat the best classifier langkah SRendah = [0+, 1-] , | SRendah | = 1
selanjutnya adalah setiap nilai pada atribut
Psikotest akan di cek apakah perlu dibuat Hitung nilai entropy untuk S, STinggi , SSedang ,
subtree di level berikutnya atau tidak.. atribut SRendah dan Information Gain untuk nil.SPMB
Psikotest, ada 2 sampel ( baik dan buruk ). adalah :
Untuk nilai ‘Baik’ terdapat 6 sampel, berarti
sampel baik tidak kosong. Sehingga perlu Entropy (S) = - ( 2/5) log2 (2/5) – (3/5)
memanggil fungsi ID3 dengan kumpulan log2 (3/5
sampel berupa sampel baik = [6+, 0-] , atribut
= 0,9710
target =’Diterima’ dan kumpulan atribut ={
nil.SPMB, Psikotest } Entropy (STinggi) = - (1/2) log2 (1/2) – (1/2) log2
(1/2)
Rekursi level 1 iterasi ke 1
(9)
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

=1 Dari kedua nilai Information Gain diatas,


Gain (S, UAN) adalah yang terbesar. Sehingga
Entropy (SSedang) = - (1/2) log2 (1/2) – (1/2) UAN adalah atribut yang merupakan the best
log2 (1/2) classifier dan harus diletakkan sebagai simpul
dibawah simpul ‘Psikotest’ pada cabang nilai
=1
‘buruk’. Selanjutnya, setiap nilai pada atribut
Entropy (SRendah) = - (0/1) log2 (0/1) – (1/1) UAN akan dicek apakah perlu dibuat subtree
log2 (1/1) dilevel berikutnya atau tidak. Untuk nilai
‘bagus’ ( pada kumpulan sample berupa
=0 SampleBuruk = [2+, 3-] ) terdapat 0 sample
berarti SampleBagus kosong. Sehingga, perlu
Gain (S, nil.SPMB) = Entropy (S) – dibuat satu simpul daun (leaf node,simpul
| |
∑ ( , , ) | yang tidak punya anak dibawahnya).
|
Entropy (Sv)
Dengan label yang paling sering muncul
= Entropy (S) – (2/5) Entropy pada SampelBuruk, yaitu ‘Tidak‘. Kemudian
(STinggi) – (2/5)Entropy dilakukan pengecekan untuk atribut ‘UAN’
(SSedang) – (1/5)Entropy bernilai ‘Cukup’. Untuk nilai ‘Cukup’ ( pada
(SRendah) kumpulan sampel berupa SampelBuruk = [2+, 3-]
). Terdapat 3 sampel, berarti yakni ‘Cukup’
= 0,9710 – (2/5) 1 – (2/5)1 – tidak kosong. Sehingga perlu memanggil
0 fungsi ID3 dengan kumpulan Sample berupa
SampleCukup = [2+, 1-] , AtributTarget =
= 0,1710 ‘Diterima’. Dan kumpulan Atribut = { nil.SPMB}.

Value (UAN) = Bagus, Cukup, Kurang Rekursi level 2 iterasi ke-1

S = SampleBuruk = [2+, 3-] , | S | = 5, Entropy Memanggil fungsi ID3 dengan kumpulan


(S) = 0,9710 Sample berupa SampleCukup = [2+, 1-]
AtributTarget = ‘Diterima’ , dan Kumpulan
SBagus = [ 0+, 0-] , | SBagus | = 0
Atribut = {nil.SPMB}. karena kumpulan atribut
SCukup = [2+, 1-] , | SCukup | = 3 hanya berisi satu atribut { yaitu nilai SPMB } ,
maka atribut yang menjadi the best classifier
SKurang = [0+, 2-] , | SKurang | = 2 adalah nilai SPMB dan harus diletakkan
sebagai simpul dibawah simpul ‘UAN’ pada
Entropy (SBagus) = 0 cabang nilai ‘Cukup’ . selanjutnya setiap nilai
pada atribut nilai SPMB akan dicek apakah
Entropy (SCukup)= - (2/3) log2 (2/3) – (1/3) log2
dibuat subtree dilevel berikutnya atau tidak.
(1/3)
Untuk nilai ‘Tinggi’ ( pada kumpulan berupa
= 0,9183 SampleCukup = [2+, 1-] ), terdapat 1 sampel ,
berarti SampleTinggi tidak kosong. Sehingga,
Entropy (SKurang) = 0 perlu memanggil fungsi ID3 dengan kumpulan
sample berupa SampleTinggi = [ 1+, 0-] ,
Gain (S, UAN) = Entropy (S) – AtributTarget = ‘Diterima’ dan kumpulan atribut
| | = {}.
∑ ( , , ) | Entropy (Sv)
|

= Entropy (S) – (0/5) Entropy (STinggi) –


(3/5)Entropy (SSedang) – (2/5)Entropy (SRendah) Rekursi level 3 iterasi ke-1

= 0,9710 – 0 – (3/5) 0,9183 – 0 Memanggil fungsi ID3 dengan kumpulan


sample berupa SampleTinggi = [ 1+, 0-] ,
= 0,4200 AtributTarget = ‘Diterima’ dan kumpulan atribut

( 10 )
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

= { }. Karena semua sample pada SampleTinggi Memanggil fungsi ID3 dengan kumpulan
termasuk dalam kelas ‘ya’ , maka fungsi ini Sample berupa SampleKurang = [ 0+, 1- ],
akan berhenti dan mengembalikan satu simpul AtributTarget = ‘Diterima’, dan kumpulan
tunggal Root dengan label ‘ya’. Atribut = {}. Karena semua sample pada
SampleKurang termasuk dalam kelas ‘Tidak’,
Selanjutnya, proses akan kembali ke rekursi maka fungsi ini akan berhenti dan
level 2 iterasi ke-2. mengembalikan satu simpul tunggal root
dengan label ‘Tidak’
Rekursi level 2 iterasi ke-2
Rekursi level 1 iterasi ke-3
Pengecekan atribut nilai SPMB untuk nilai
‘Tinggi’ sudah dilakukan pada rekursi level 2 Pengecekan atribut UAN untuk nilai ‘Bagus’
iterasi ke-1. Selanjutnya, pengecekan dan ‘Cukup’ yaitu pada rekursi level 1 iterasi
dilakukan pada atribut nilai SPMB untuk nilai ke-2. Selanjutnya pengecekan dilakukan pada
‘Sedang’ . ternyata terdapat 1 sampel pada atribut UAN untuk nilai ‘Kurang’ . ternyata
kumpulan sampel dimana psikotest bernilai terdapat 2 sample pada Kumpulan Sample
‘Buruk’ dan UAN bernilai ‘Cukup’ . karena dimana Psikotest bernilai ‘Buruk’ dan UAN
SampleSedang tidak kosong maka perlu bernilai ‘Rendah’. Karena sample rendah tidak
memanggil fungsi ID3 dengan kosong sehingga perlu memanggil fungsi ID3
KumpulanSampel berupa SampleSedang = [ 1+, dengan kumpulan sample berupa SampleRendah
0- ], AtributTarget = ‘Diterima’, dan = [ 0+, 2- ], atribut target = ‘Diterima’, dan
KumpulanAtribut = {}. kumpulan atribut = { IPK }
Rekursi level 3 iterasi ke-2 Selanjutnya proses akan kembali ke rekursi

Memanggil fungsi ID3 dengan level 2 iterasi ke-4


KumpulanSampel berupa SampleSedang = [ 1+,
0- ], AtributTarget = ‘Diterima’, dan Rekursi level 2 iterasi ke-4
KumpulanAtribut = {}. Karena sample pada
Memanggil fungsi ID3 dengan kumpulan
SampleSedang termasuk kedalam kelas ‘Ya’ ,
sample berupa SampleRendah = [ 0+, 2- ], atribut
maka fungsi ini akan berhenti dan
target = ‘Diterima’, dan kumpulan atribut = {
mengembalikan satu simpul tunggal Root
dengan label ‘Ya’ IPK }. Karena semua sample pada
SampleRendah termasuk kedalam kelas ‘Tidak’ ,
Selanjutnya proses akan kembali pada rekursi maka fungsi ini akan berhenti dan
mengembalikan satu simpul tunggal root
level 2 iterasi ke-3.
dengan label ‘Tidak’
Rekursi level 2 iterasi ke-3 Dilihat dari langkah-langkah diatas
bahwa ID3 melakukan strategis pencarian
Pada rekursi level 2 iterasi ke-1 dan ke-2,
yaitu dimulai dari pohon kosong, kemudian
sudah dilakukan pengecekan atribut nilai
secara progresif berusaha menemukan
SPMB untuk nilai ‘Tinggi’ dan ‘Sedang’.
sebuah pohon keputusan yang mampu
Selanjutnya, pengecekan dilakukan pada
mengklasifikasikan sampel-sampel data
Atribut nil.SPMB untuk nilai ‘Rendah’. Ternyata
secara akurat tanpa kesalahan.
terdapat 1 sample pada KumpulanSample
dimana Psikotest bernilai ‘Buruk’ dan UAN Dan dari akhir proses ID3 didapat pohon
bernilai ‘Cukup’ . karena SampleRendah tidak keputusan akhir di dapat 7 sampel data lain
kosong, maka perlu memanggil fungsi ID3 yang belum diketahui sebelumnya, ketujuh
dengan KumpulanSample berupa SampleRendah sampel itu adalah sebagai berikut :
= [ 0+, 1-] , AtributTarget = ‘Diterima’, dan
KumpulanAtribut = {}. Sebelumnya kita melakukan penelusuran
mulai dari simpul root menuju ketiga leaf node
Rekursi level 3 iterasi ke-3 tersebut.

( 11 )
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Lakukan operasi conjunction ( ^ ) pada setiap


Peserta
simpul yang dikunjungi sampai ditemukan leaf Nil.SPMB UAN Psikotest Diterima
SPMB
node ‘Ya’. Kemudian, lakukan operasi
P12 Tinggi Bagus Buruk Tidak
disjunction ( v ) pada penelusuran tersebut.
P13 Tinggi Kurang Baik Ya
Dengan demikian 7 sampel yang belum
diketahui adalah sebagai berikut : P14 Sedang Bagus Buruk Tidak
P15 Sedang Kurang Baik Ya
(Psikotest = ‘Buruk’) ^ (UAN=’Bagus’) ^
(nil.SMB=’Tinggi’) è Diterima=’Tidak’ P16 Rendah Bagus Buruk Tidak
P17 Rendah Cukup Baik Ya
(Psikotest = ‘Baik’) ^ (UAN=’Kurang’) ^ P18 Rendah Kurang Buruk Tidak
(nil.SMB=’Tinggi’) è Diterima=’ Ya’

(Psikotest = ‘Buruk’) ^ (UAN=’Bagus’) ^


(nil.SMB=’Sedang’) è Diterima=’Tidak’ Rekursi level 0 , Itersi ke 2
Psikotest
(Psikotest = ‘Baik’) ^ (UAN=’Kurang’) ^
(nil.SMB=’Sedang’) è Diterima=’ Ya’

Baik Buruk
POHON KEPUTUSAN

Rekursi Level O iterasi ke-1 Ya


Rekursi level 1 iterasi ke 2
Psikotest
Psikotest

Baik

Baik Buruk

Rekursi level 1 iterasi ke 1 Ya UAN

Psikotest
Bagus Cukup

Tidak
Baik

Ya

(Psikotest = ‘Buruk’) ^ (UAN=’Bagus’) ^ (nilai


SPMB=’ Rendah’) è Diterima=’Tidak’.

(Psikotest = ‘Baik’) ^ (UAN=’ Cukup’) ^ (nilai


SPMB=’ Rendah’) è Diterima=’ Ya’.

(Psikotest = ‘Buruk’) ^ (UAN=’ Kurang’) ^


(nil.SMB=’ Rendah’) è Diterima=’Tidak’

( 12 )
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Rekursi level 2 iterasi ke-1


Rekursi level 2 iterasi ke-2
Psikotest
Psikotest

Baik Buruk
Baik Buruk
Ya UAN
Ya UAN

Bagus Cukup
Bagus Cukup
Tidak Nil.SPMB
Tidak Nil.SPMB

Tinggi
Tinggi Sedang

Rekursi level 3 iterasi ke-1 Ya

Psikotest
Rekursi level 3 iterasi ke-2
Psikotest
Baik Buruk

Ya UAN Baik Buruk

Bagus Cukup Ya UAN

Tida Nil.SPMB Bagus Cukup

Tidak Nil.SPMB
Tinggi

Ya Tinggi Sedang

Ya Ya

( 13 )
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Rekursi level 2 iterasi ke-3 Rekursi level 1 iterasi ke-3


Psikotest
Psikotest

Baik Buruk
Baik Buruk

Ya UAN
Ya UAN

Bagus Cukup Kurang


Bagus Cukup

Tidak Nil.SPMB
Tidak Nil.SPMB

Tinggi Sedan Rendah


Tinggi Sedan Rendah

Ya Ya Tidak
Ya Ya

Rekursi level 2 iterasi ke-4


Rekursi level 3 iterasi ke-3
Psikotest
Psikotest

Baik Buruk
Baik Buruk
Ya UAN
Ya UAN

Bagus Cukup Kurang


Bagus Cukup
Tidak Nil.SPMB Tidak
Tidak Nil.SPMB

Tinggi Sedang Rendah


Tinggi Sedan Rendah
Ya Ya Tidak
Ya Ya Tidak

( 14 )
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)
JURNAL PENDIDIKAN TEKNOLOGI INFORMASI DAN KOMUNIKASI (PTIK) ISSN 1979-9462

Pohon keputusan akhir yang dihasilkan oleh fungsi tergantung pada pihak universitas berdasarkan
ID3. pertimbangan beberapa kriteria yang
ditetapkan.
Dengan demikian 7 sampel yang
belum diketahui adalah sebagai berikut : Reference

(Psikotest = ‘Buruk’) ^ (UAN=’Bagus’) ^ 1. Suyanto, ST, MSc (2007). ARTIFICIAL


(nil.SMB=’Tinggi’) è Diterima=’Tidak’ INTELLIGENCE. Bandung :
informatika
(Psikotest = ‘Baik’) ^ (UAN=’Kurang’) ^
(nil.SMB=’Tinggi’) è Diterima=’ Ya’ 2. Sela, eny itje (2006). KNOWLEDGE
DISCOVERY MENGGUNAKAN
(Psikotest = ‘Buruk’) ^ (UAN=’Bagus’) ^ DECISION TREE. Depok seminar
(nil.SMB=’Sedang’) è Diterima=’Tidak’ ilmiah nasional komputer dan intelejen
[ONLINE]. Tersedia:
(Psikotest = ‘Baik’) ^ (UAN=’Kurang’) ^ http://repository.gunadarma.ac.id/ (04
(nil.SMB=’Sedang’) è Diterima=’ Ya’ Oktober 2009).
(Psikotest = ‘Buruk’) ^ (UAN=’Bagus’) ^ (nilai 3. Munir, rinaldi (2005). MATEMATIKA
SPMB=’ Rendah’) è Diterima=’Tidak’ DISKRIT. Bandung : CV. Informatika
Bandung
(Psikotest = ‘Baik’) ^ (UAN=’ Cukup’) ^ (nilai
SPMB=’ Rendah’) è Diterima=’ Yas’ 4. Setiawan, sandi (1993).ARTIFICIAL
INTELEGENT. Yogyakarta: andi.
(Psikotest = ‘Buruk’) ^ (UAN=’ Kurang’) ^ (nilai
SPMB=’ Rendah’) è Diterima=’Tidak’ 5. Niwanputri, ginar santika (2007).
PENGGUNAAAN POHON DALAM
Peserta Nil. UAN Psiko Di DECISION TREE
SPMB SPMB test terima
P12 Tinggi Bagus Buruk Tidak 6. ANALYSIS UNTUK PENGAMBILAN
P13 Tinggi Kurang Baik Ya KEPUTUSAN. Program Studi Teknik
P14 Sedang Bagus Buruk Tidak Informatika

P15 Sedang Kurang Baik Ya 7. Sekolah Teknik Elektro dan


P16 Rendah Bagus Buruk Tidak Informatika Institut Teknologi Bandung
P17 Rendah Cukup Baik Ya [ONLINE]. Tersedia:

P18 Rendah Kurang Buruk Tidak 8. http://www.cs.cmu.edu/afs/cs.cmu.edu


/ (04 Oktober 2009).

9. Iwan syarif, ahmad basuki (2003).


Kesimpulan DECISION TREE. Politeknik
Elektronika Negeri Surabaya
Berdasarkan pembahasan diatas dapat ditarik [ONLINE]. Tersedia:
kesimpulan sebagai berikut : http://www.pens.ac.id/~basuki/lecture/
decisiontree.pdf (04 Oktober
1. pohon keputusan dengan algoritma ID3 2009).
dapat digunakan untuk memperoleh
pengetahuan pada bidang pendidikan
khususnya memberikan keputusan dalam hal
seleksi penerimaan mahasiswa baru

2.seseorang peserta yang mengikuti seleksi


mahasiswa baru dinyatakan diterima atau tidak

( 15 )
Indonesian Community on Information and Vol. 2 no. 2 / Desember 2009
Communication Technology (IC2T)

Anda mungkin juga menyukai