Anda di halaman 1dari 47

Tugas Matrikulasi I

“Decision Support System”


(Electre-1, SAW, TOPSIS, C4.5, Naïve Bayes, ID3, K-Means, Fuzzy C-Means)
Dosen Pengampu: Prof. Dr. I Made Candiasa, M.I.Kom.

Oleh

I GUSTI AGUNG NGURAH RATU AGUNG WIRAPATHI ( 1929101050 )

PROGRAM STUDI ILMU KOMPUTER


PROGRAM PASCASARJANA
UNIVERSITAS PENDIDIKAN GANESHA
1. Algoritma Electre-1
Penerapan Algoritma Electre-1 dalam menentukan pemohon yang berpeluang paling besar
untuk diterima dalam pemberian kredit mobil. Perusahaan memberi kredit mobil kepada
pelanggan dengan prinsip 5c, seperti berikut.
a. Character/Karakter (C1)
b. Capital/Uang Muka (C2)
c. Capacity/Kemampuan Melunasi (C3)
d. Collateral/Jaminan (C4)
e. Condition/Kondisi (C5)
Terdapat 9 pemohon dengan data seperti berikut.
Tabel 1. Data Pemohon
Kriteria
No Pemohon
C1 C2 C3 C4 C5
1 Wira 3 2 3 5 3
2 Yoga 2 4 1 2 3
3 Anom 4 2 2 3 3
4 Wijaya 4 5 5 3 4
5 Dede 2 2 4 4 1
6 Kurnia 5 3 1 4 3
7 Dewa 4 4 5 2 2
8 Diva 4 4 4 3 5
9 Ari 2 2 1 1 3

Adapun bobot yang digunakan dalam setiap kriteria yaitu sebagai berikut.
Tabel 2. Kriteria Karakter
Karakter Bobot
Sangat Baik 5
Baik 4
Cukup 3
Kurang 2
Sangat Kurang 1

Tabel 3. Kriteria Uang Muka


Uang Muka Bobot
DP > 30% 5
25% < DP ≤ 30% 4
20% < DP ≤ 25% 3
15% < DP ≤ 20% 2
DP ≤ 15% 1
Tabel 4. Kriteria Kemampuan Melunasi
Kemampuan Melunasi Bobot
Sangat Baik 5
Baik 4
Cukup 3
Kurang 2
Sangat Kurang 1

Tabel 5. Kriteria Jaminan


Jaminan Bobot
Sertifikat Tanah 5
BPKB Mobil 3
BPKB Motor 1

Tabel 6. Kriteria Kondisi Ekonomi


Kondisi Ekonomi Bobot
Sangat Baik 5
Baik 4
Cukup 3
Kurang 2
Sangat Kurang 1

Tabel 7. Bobot Tiap Kriteria


Kondisi Ekonomi Bobot
Character 0.2
Capital 0.25
Capacity 0.2
Collateral 0.15
Condition 0.2

A. Normalisasi Matriks Keputusan


Untuk membentuk sebuah perbandingan berpasangan pada setiap alternatif setiap
kriteria 𝑊. Nilai harus dinormalisasikan ke dalam skala yang dapat diperbandingkan
atau comparable 𝑅.
3 2 3 5 3
2 4 1 1 3
4 2 2 3 3
4 5 5 3 4
𝑋𝑖𝑗 = 2 2 4 5 1
5 3 1 5 3
4 4 5 1 2
4 4 4 3 5
[2 2 1 1 3]
𝑥𝑖𝑗
𝑟𝑖𝑗 =
√ ∑𝑚 2
𝑖=1 𝑥𝑖𝑗

3
𝑟11 = = 0.28603878
√32 + 22 +42 +42 … . +22
2
𝑟12 = = 0.202031
√32 + 22 +42 +42 … . +22

.
.
.
3
𝑟95 = = 0.31448545
√32 + 32 +32 +42 … . +3

Sehingga didapat matriks 𝑅 sebagai berikut


0.28603878 0.202031 0.3030458 0.48795004 0.31448545
0.19069252 0.404061 0.1010153 0.09759001 0.31448545
0.38138504 0.202031 0.2020305 0.29277002 0.31448545
0.38138504 0.505076 0.5050763 0.29277002 0.41931393
𝑅 = 0.19069252 0.202031 0.404061 0.48795004 0.10482848
0.47673129 0.303046 0.1010153 0.48795004 0.31448545
0.38138504 0.404061 0.5050763 0.09759001 0.20965697
0.38138504 0.404061 0.404061 0.29277002 0.52414242
[0.19069252 0.202031 0.1010153 0.09759001 0.31448545]

B. Pembobotan pada Matriks yang telah Dinormalisasi


Pembobotan dilakukan dengan mengalikan nilai pada matriks 𝑅 dengan nilai preferensi
𝑊 yang telah ditentukan, 𝑉 = 𝑊 × 𝑅
𝑣𝑖𝑗 = 𝑤𝑗 × 𝑟𝑖𝑗
𝑣11 = 𝑤1 × 𝑟11 = 0.2 × 0.28603878 = 0.05720776
𝑣12 = 𝑤2 × 𝑟12 = 0.25 × 0.202031 = 0.050508
.
.
.
𝑣95 = 𝑤5 × 𝑟95 = 0.2 × 0.31448545 = 0.06289709
Sehingga didapat matriks 𝑉 sebagai berikut
0.05720776 0.050508 0.0606092 0.07319251 0.06289709
0.0381385 0.101015 0.0202031 0.0146385 0.06289709
0.07627701 0.050508 0.0404061 0.0439155 0.06289709
0.07627701 0.126269 0.1010153 0.0439155 0.08386279
𝑉 = 0.0381385 0.050508 0.0808122 0.07319251 0.0209657
0.09534626 0.075761 0.0202031 0.07319251 0.06289709
0.07627701 0.101015 0.1010153 0.0146385 0.04193139
0.07627701 0.101015 0.0808122 0.0439155 0.10482848
[ 0.0381385 0.050508 0.0202031 0.0146385 0.06289709]

C. Menentukan Himpunan Concrdance dan Discordance


Himpunan Concordance index 𝑐𝑘𝑙 menunjukan penjumlahan bobot kriteria alternative
𝐴𝑘 lebih baik dari pada alternative 𝐴𝑙 , 𝐶𝑘𝑙 = {𝑗|𝑉𝑔𝑗 ≥ 𝑉𝑖𝑗 } untuk j = 1,2,....,n.
Sedangkan himpunan Discordance {𝑑𝑘𝑙} yaitu 𝐷𝑘𝑙 = {𝑗|𝑉𝑔𝑗 ≤ 𝑉𝑖𝑗 } untuk j = 1,2,....,n.
1. Perbandingan Matriks V baris 1 dan 2
Kolom
1 2 3 4 5
Baris
1 0.05720776 0.050508 0.0606092 0.07319251 0.06289709
2 0.0381385 0.101015 0.0202031 0.0146385 0.06289709
Hasil C D C C C

2. Perbandingan Matriks V baris 1 dan 3


Kolom
1 2 3 4 5
Baris
1 0.05720776 0.050508 0.0606092 0.07319251 0.06289709
3 0.076277 0.050507 0.0404061 0.04391550 0.06289709
Hasil D C C C C
.
.
.
72. Perbandingan Matriks V baris 9 dan 8
Kolom
1 2 3 4 5
Baris
9 0.0381385 0.050508 0.0202031 0.0146385 0.06289709
8 0.07627701 0.101015 0.0808122 0.0439155 0.10482848
Hasil D D D D D
D. Menghitung Matriks Dominan Concordance dan Discordance
Langkah selanjutnya adalah menjumlahkan nilai dari masing-masing himpunan baik
concordance maupun discordance, Himpunan concordance diambil dari himpunan w
(bobot preferensi):
𝐶12 = {1,3,4,5}
𝐶12 = 𝑤1 + 𝑤3 + 𝑤4 + 𝑤5 = 0.2 + 0.2 + 0.15 + 0.2 = 0.75
𝐶13 = {2,3,4,5}
𝐶13 = 𝑤2 + 𝑤3 + 𝑤4 + 𝑤5 = 0.25 + 0.2 + 0.15 + 0.2 = 0.8
.
.
.
𝐶98 = {0}
𝐶13 = 0
Sehingga didapat matriks 𝐶 sebagai berikut.
- 0.75 0.8 0.15 0.8 0.55 0.35 0.15 1
0.45 - 0.45 0 0.65 0.65 0.6 0.25 1
0.65 0.75 - 0.35 0.65 0.4 0.55 0.35 1
0.85 1 1 - 0.85 0.65 1 0.8 1
C= 0.6 0.55 0.6 0.15 - 0.35 0.15 0.35 0.8
0.8 0.75 0.8 0.35 0.8 - 0.55 0.35 1
0.65 0.8 0.65 0.4 0.85 0.45 - 0.65 0.8
0.85 1 1 0.55 0.85 0.65 0.8 - 1
0.45 0.75 0.45 0 0.65 0.4 0.35 0 -

Setelah himpunan Concordance ditentukan, langkah selanjutnya yaitu menentukan


himpunan Discordance yaitu sebagai berikut.
𝐷12 = {2}
max{|𝑣12 − 𝑣22 |}
𝐷12 =
max{|𝑣11 − 𝑣21 |; |𝑣12 − 𝑣22 |; |𝑣13 − 𝑣23 |; |𝑣14 − 𝑣24 |; |𝑣15 − 𝑣25 |}
0.050507627
𝐷12 = = 0.8625
0.058554004
𝐷13 = {1}
max{|𝑣11 − 𝑣21 |}
𝐷13 =
max{|𝑣11 − 𝑣21 |; |𝑣12 − 𝑣22 |; |𝑣13 − 𝑣23 |; |𝑣14 − 𝑣24 |; |𝑣15 − 𝑣25 |}
0.019069252
𝐷13 = = 0.65134
0.029277002
.
.
.
𝐷98 = {1,2,3,4,5}
max{|𝑣11 − 𝑣21 |; |𝑣12 − 𝑣22 |; |𝑣13 − 𝑣23 |; |𝑣14 − 𝑣24 |; |𝑣15 − 𝑣25 |}
𝐷98 =
max{|𝑣11 − 𝑣21 |; |𝑣12 − 𝑣22 |; |𝑣13 − 𝑣23 |; |𝑣14 − 𝑣24 |; |𝑣15 − 𝑣25 |}
𝐷98 = 1
Sehingga didapat matriks 𝐷 sebagai berikut
0.8625 0.6513 0.4818 0.9438 0.8625
- 8 4 1 1 8 8 1 0
1 - 0.7551 1 1 1 1 1 0
0.9636
1 1 - 1 2 1 1 1 0
0.3864 0.3864 0.3622 0.830
4 0 0 - 4 8 0 2 0
0.8333 0.9438 0.8625 0.6918
D= 1 3 1 1 - 8 8 1 3
0.4312 0.6900
1 9 7 1 1 - 1 1 0
0.2594 0.4830 0.7245 0.2594
1 4 5 1 1 7 - 1 4
0.5796 0.3491 0.4830 0.3212
6 0 0 1 1 5 1 - 0
1 1 1 1 1 1 1 1 -

E. Menentukan Matriks Dominan Concordance dan Discordance


Matriks – matriks dominan dibangun dengan bantua nilai threshold c untuk matriks
dominan Concordance.
∑𝑚 𝑚
𝑘=1 ∑𝑙=1 𝑐𝑘𝑙
𝑐=
𝑚(𝑚 − 1)
0.45 + 0.65 + 0.85 + ⋯ + 1
𝑐= = 0.61667
9(9 − 1)
Hal yang ama berlaku untuk matriks dominan discordance dengan bantuan nilai
threshold d.
∑𝑚 𝑚
𝑘=1 ∑𝑙=1 𝑑𝑘𝑙
𝑑=
𝑚(𝑚 − 1)
1 + 1 + 0.38644 + ⋯ + 0
𝑑= = 0.71387
9(9 − 1)
F. Menetukan Agregate Dominan Matriks
Elemen-elemen matrks concordance dominan F sebagai berikut.
1, 𝑐𝑘𝑙 ≥ 𝑐
𝑓𝑘𝑙 {
0, 𝑐𝑘𝑙 < 𝑐
Sehingga didapat matriks 𝐹 sebagai berikut
- 1 1 0 1 0 0 0 1
0 - 0 0 1 1 0 0 1
1 1 - 0 1 0 0 0 1
1 1 1 - 1 1 1 1 1
F= 0 0 0 0 - 0 0 0 1
1 1 1 0 1 - 0 0 1
1 1 1 0 1 0 - 1 1
1 1 1 0 1 1 1 - 1
0 1 0 0 1 0 0 0 -
Elemen-elemen matrks discordance dominan F sebagai berikut.
1, 𝑑𝑘𝑙 ≥ 𝑑
𝑔𝑘𝑙 {
0, 𝑑𝑘𝑙 < 𝑑
Sehingga didapat matriks 𝐺 sebagai berikut
- 1 1 0 1 1 1 0 1
1 - 1 0 1 0 0 0 1
0 1 - 0 1 0 0 0 1
1 1 1 - 1 1 1 1 1
G= 0 1 1 0 - 1 1 0 1
1 1 1 0 1 - 1 0 1
1 1 1 0 1 1 - 0 1
1 1 1 1 1 1 1 - 1
0 0 0 0 0 0 0 0 -

G. Hasil dan Pengujian


Agregasi dari matriks domain (E) yang menunjukan urutan preferensi parsial dari
alternatif-alternatif, diperoleh dengan formula 𝑒𝑘𝑙 = 𝑓𝑘𝑙 × 𝑔𝑘𝑙 , sehingga didapat
matriks 𝐸 sebagai berikut.
- 1 1 0 1 0 0 0 1 4
0 - 0 0 1 0 0 0 1 2
0 1 - 0 1 0 0 0 1 3
1 1 1 - 1 1 1 1 1 8
E= 0 0 0 0 - 0 0 0 1 1
1 1 1 0 1 - 0 0 1 5
1 1 1 0 1 0 - 0 1 5
1 1 1 0 1 1 1 - 1 7
0 0 0 0 0 0 0 0 - 0
Matriks E memberikan urutan pilihan dari setiap alternatif. Dari perhitungan matriks
diatas, maka dengan demikian didapat peringkat alternatif tertinggi sampai terendah
yaitu sebagai berikut.
No. No. Urut Pemohon Point
1 4 Wijaya 8
2 8 Diva 7
3 6 Kurnia 5
4 7 Dewa 5
5 1 Wira 4
6 3 Anom 3
7 2 Yoga 2
8 5 Dede 1
9 9 Ari 0
2. Algoritma Simple Additive Weighting
Penerapan Algoritma SAW dalam menentukan pelamar yang memiliki peluang paling
besar untuk diterima dari sebuah perusahaan yang akan melakukan rekrutmen 2 calon
programmer. Kriteria dan data pelamar yang ada adalah sebagai berikut.
a. Benefit
1) Pengalaman kerja (C1)
2) Pendidikan (C2)
b. Cost
1) Jarak tempat tinggal (C3)

Tabel 1. Data Pemohon


Calon Kriteria
No
Pegawai C1 C2 C3
1 Wira 3 1 3
2 Dede 3 2 1
3 Yoga 2 1 3
4 Anom 1 3 2
5 Wijaya 3 2 3

Langkah selanjutnya adalah menentukan bobot dari setiap kriteria yang digunakan sebagai
acuan dalam pengambilan suatu keputusan. Penentuan bobot dari setiap kriteria dapat
menggunakan otoritas dari pihak pengambil keputusan yaitu sebagai berikut.

Tabel 2. Bobot Masing-masing Kriteria


Kriteria Bobot Jenis Kriteria
Pengalaman Kerja 0.4 Benefit
Pendidikan 0.3 Benefit
Jarak Tempat Tinggal 0.3 Cost

Standar penilaian disajikan pada tabel-tabel berikut.

Tabel 2. Kriteria Pengalaman Kerja


Pengalaman Kerja Bobot
Lebih dari 1 Tahun 3
1 Tahun 2
Fresh Graduate 1
Tabel 3. Kriteria Pendidikan
Pendidikan Bobot
S2 3
S1 2
SMA 1

Tabel 4. Kriteria Jarak Tempat Tinggal


Jarak Tempat Tinggal Bobot
Lebih dari 5 Km 3
1 km < x ≤ 5 km 2
Kurang dari 1 km 1

A. Menentukan Matriks X dan W


Melalui data pelamar dan bobot kriteria C1, C2, dan C3 dapat dibuat matriks X dan
W yaitu sebagai berikut.

3 1 3
3 2 1
X= 2 1 3
1 3 2
3 2 3

0.4
𝑊 = [0.3]
0.3

B. Normalisasi Matriks X
Setelah dibuat matriks keputusan X selanjutnya menormalisasi matriks keputusan X
xij
rij  ; untuk kriteria benefit
Max ( x j )

Min ( x j )
rij  ; untuk kriteria cost
xij

𝑥11 3
𝑟11 = = =1
max(𝑥1 ) 3
𝑥12 1
𝑟12 = = = 0.33333
max(𝑥2 ) 3
.
.
.
min(𝑥3 ) 1
𝑟53 = = = 0.33333
𝑥53 3

Sehingga didapat matriks 𝑅 sebagai berikut

1 0.333333333 0.333333333
1 0.666666667 1
R= 0.666667 0.333333333 0.333333333
0.333333 1 0.5
1 0.666666667 0.333333333

C. Menentukan Nilai Preferensi V


Menentukan nilai preferensi V, yaitu dengan mengalikan elemen matriks
ternomalisasi R dengan bobot preferensi yang bersesuaian dengan elemen matriks
W.
V=R×W
𝑛

𝑣𝑖 = ∑ 𝑟𝑖𝑗 × 𝑤𝑗
𝑗=1

1 0.333333 0.333333
1 0.666667 1 0.4
V = 0.666667 0.333333 0.333333 × 0.3
0.333333 1 0.5 0.3
1 0.666667 0.333333

0.6
0.9
V= 0.466667
0.583333
0.7
D. Hasil
Setelah nilai preferensi sudah diperoleh, selanjutnya menentukan perankingan dari
nilai preferensi tersebut. Nilai preferensi V yang diperoleh akan diranking dari yang
terbesar sampai terkecil. Dari perhitungan matriks diatas didapat peringkat
alternatif tertinggi sampai terendah yaitu sebagai berikut.

Tabel 5. Hasil Perankingan


No. Nama Pelamar Point Rangking
1 Dede 0.9 1
2 Wijaya 0.7 2
3 Wira 0.6 3
4 Anom 0.58333 4
5 Yoga 0.46667 5
3. Algoritma TOPSIS
Penerapan Algoritma TOPSIS dalam menentukan pelamar yang memiliki peluang paling
besar untuk diterima dari sebuah perusahaan yang akan melakukan rekrutmen 2 calon
programmer. Kriteria dan data pelamar yang ada adalah sebagai berikut.
a. Pengalaman kerja (C1)
b. Pendidikan (C2)
c. Jarak tempat tinggal (C3)

Tabel 1. Data Pemohon


Calon Kriteria
No
Pegawai C1 C2 C3
1 Wira 3 1 3
2 Dede 3 2 1
3 Yoga 2 1 3
4 Anom 1 3 2
5 Wijaya 3 2 3

Langkah selanjutnya adalah menentukan bobot dari setiap kriteria yang digunakan sebagai
acuan dalam pengambilan suatu keputusan. Penentuan bobot dari setiap kriteria dapat
menggunakan otoritas dari pihak pengambil keputusan yaitu sebagai berikut.

Tabel 1. Data Pemohon


Calon Kriteria
No
Pegawai C1 C2 C3
1 Wira 3 1 3
2 Dede 3 2 1
3 Yoga 2 1 3
4 Anom 1 3 2
5 Wijaya 3 2 3

Langkah selanjutnya adalah menentukan bobot dari setiap kriteria yang digunakan sebagai
acuan dalam pengambilan suatu keputusan. Penentuan bobot dari setiap kriteria dapat
menggunakan otoritas dari pihak pengambil keputusan yaitu sebagai berikut.
Tabel 2. Bobot Masing-masing Kriteria
Kriteria Bobot
Pengalaman Kerja 4
Pendidikan 3
Jarak Tempat Tinggal 3

Standar penilaian disajikan pada tabel-tabel berikut.

Tabel 2. Kriteria Pengalaman Kerja


Pengalaman Kerja Bobot
Lebih dari 1 Tahun 3
1 Tahun 2
Fresh Graduate 1

Tabel 3. Kriteria Pendidikan


Pendidikan Bobot
S2 3
S1 2
SMA 1

Tabel 4. Kriteria Jarak Tempat Tinggal


Jarak Tempat Tinggal Bobot
Kurang dari 1 Km 3
1 km ≤ x ≤ 5 km 2
Lebih dari 5 km 1

A. Menentukan Matriks X dan W


Melalui data pelamar dan bobot kriteria C1, C2, dan C3 dapat dibuat matriks X dan
W yaitu sebagai berikut.

3 1 3
3 2 1
X= 2 1 3
1 3 2
3 2 3

4
𝑊 = [3]
3
B. Normalisasi Matriks X
Setelah dibuat matriks keputusan X selanjutnya menormalisasi matriks keputusan X
xij
rij 

m 2
x
i 1 ij

𝑥11 3
𝑟11 = = = 0.530330086
2 2 2 √32 + 32 + ⋯ + 32
√𝑥11 + 𝑥21 + ⋯ + 𝑥51
𝑥12 1
𝑟12 = = = 0.229415734
2 2 2 √12 + 22 + ⋯ + 22
√𝑥12 + 𝑥22 + ⋯ + 𝑥52
.
.
.
𝑥53 3
𝑟53 = = = 0.530330086
2 2 2 √32 + 12 + ⋯ + 32
√𝑥13 + 𝑥23 + ⋯ + 𝑥53

Sehingga didapat matriks 𝑅 sebagai berikut


0.530330086 0.229415734 0.530330086
0.530330086 0.458831468 0.176776695
R= 0.353553391 0.229415734 0.530330086
0.176776695 0.688247202 0.353553391
0.530330086 0.458831468 0.530330086

C. Membuat Matriks Keputusan V


Matriks keputusan V, diperoleh dengan mengalikan elemen matriks ternomalisasi
R dengan bobot W.
v ij  w j rij

𝑣11 = 𝑤1 × 𝑟11 = 4 × 0.530330086 = 2.121320344


𝑣12 = 𝑤2 × 𝑟12 = 3 × 0.229415734 = 0.688247202
.
.
.
𝑣53 = 𝑤3 × 𝑟53 = 3 × 0.530330086 = 1.590990258
Sehingga didapat matriks 𝑉 sebagai berikut
2.121320344 0.6882472 1.590990258
2.121320344 1.3764944 0.530330086
V= 1.414213562 0.6882472 1.590990258
0.707106781 2.0647416 1.060660172
2.121320344 1.3764944 1.590990258

D. Menentukan Matriks Solusi Ideal Positif dan Matriks Solusi Ideal Negatif
Solusi ideal positif dinotasikan A  , sedangkan solusi ideal negatif dinotasikan A  .
Berikut ini adalah persamaan dari A  dan A  :
   
A  {a1 , a2 , a3 ,..., an } dengan ai   max( vi )
   
A  {a1 , a2 , a3 ,..., an } dengan ai   min( vi )

A+= {max( v1 ), max( v2 ), max( v3 )}  {2.121320344, 2.0647416,1.590990258}

A-= {min( v1 ), min( v2 ), min( v3 )}  {0.707106781, 0.6882472, 0.530330086}

Sehingga diperoleh tabel sebagai berikut.


Pengalaman Kerja Pendidikan Jarak Tempat Tinggal
Nilai
Maksimum 2.121320344 2.064741605 1.590990258
(+)
Nilai
Minimum 0.707106781 0.688247202 0.530330086
(-)

E. Menentukan Jarak Antara Nilai Setiap Alternatif dengan Solusi Ideal


1. Jarak Antara Nilai Setiap Alternatif Dengan Matriks Solusi Ideal Positif
adalah:

 a 
 n  2
Si  j 1 j  vij

𝑆1+ = √(𝑎1+ − 𝑣11 )2 + (𝑎2+ − 𝑣12 )2 +(𝑎3+ − 𝑣13 )2

𝑆1+ = √(2.121 − 2.121)2 + (2.064 − 0.688)2 +(0.59 − 1.59)2 = 1.376494403

𝑆2+ = √(2.121 − 2.121)2 + (2.064 − 1.376)2 +(1.59 − 0.53)2 = 1.264390846


.
.
.
𝑆5+ = √(2.121 − 2.121)2 + (2.064 − 1.376)2 +(1.59 − 1.59)2 = 0.688247202

Sehingga diperoleh matriks S+ sebagai berikut.


1.3764944
1.26439085
S+ = 1.54749373
1.51038075
0.6882472

2. Jarak Antara Nilai Setiap Alternatif Dengan Matriks Solusi Ideal Positif
adalah:

 a 
 n  2
Si  j 1 j  vij

𝑆1− = √(𝑎1− − 𝑣11 )2 + (𝑎2− − 𝑣12 )2 +(𝑎3− − 𝑣13 )2

𝑆1− = √(0.707 − 2.121)2 + (0.688 − 0.688)2 +(0.53 − 1.59)2 = 1.767766953

𝑆2− = √(0.707 − 2.121)2 + (0.688 − 1.376)2 +(0.53 − 0.53)2 = 1.572795031


.
.
.
.

𝑆5− = √(0.707 − 2.121)2 + (0.688 − 1.376)2 +(0.53 − 1.59)2 = 1.897019823

Sehingga diperoleh matriks S- sebagai berikut.


1.767766953
1.572795031
S- = 1.274754878
1.475122653
1.897019823

F. Menentukan Nilai Preferensi Untuk Setiap Alternatif


Menentukan nilai preferensi untuk setiap alternatif dengan cara
𝑆−
𝑐𝑖 + = (𝑆 − +𝑆
𝑖
+ , 0 ≤ 𝑐𝑖
+
≤ 1, dengan i = 1, 2, 3, . . ., m
𝑖 ) 𝑖

𝑆1 − 1.767766953
𝑐1 + = − + = = 0.562220106
(𝑆1 + 𝑆1 ) 1.767766953 + 1.3764944

+
𝑆2 − 1.572795031
𝑐2 = − + = = 0.554350367
(𝑆2 + 𝑆2 ) 1.572795031 + 1.26439085
.
.
.

𝑆5 1.897019823
𝑐5 + = − + = = 0.733781
(𝑆5 + 𝑆5 ) 1.897019823 + 0.6882472

Setelah nilai preferensi sudah diperoleh, selanjutnya menentukan perankingan dari


nilai preferensi tersebut. Dari perhitungan diatas didapat peringkat alternatif
tertinggi sampai terendah yaitu sebagai berikut.

No. Nama Pelamar Point Rangking


1 Wijaya 0.733781 1
2 Wira 0.56222 2
3 Dede 0.55435 3
4 Anom 0.494095 4
5 Yoga 0.451681 5
4. Algoritma C4.5
Penerapan Algoritma C4.5 untuk Memprediksi Predikat Kelulusan dengan data sebagai
berikut.
Tabel 1. Data Rataan Nilai Raport dan Predikat Kelulusan Mahasiswa
Rata-rata Nilai Raport Predikat
No Nama
Matematika Fisika Kimia Biologi Kelulusan
1 Krisnawa 74 76 95 90 Memuaskan
2 Sanis 89 86 89 92 Sangat Memuaskan
3 Wira 95 88 95 65 Pujian
4 Levi 85 84 84 96 Sangat Memuaskan
5 Aldy 75 80 75 89 Memuaskan
6 Bayu 83 88 86 85 Memuaskan
7 Agung 89 91 86 86 Pujian
8 Koji 79 88 89 87 Memuaskan
9 Cintya 76 73 60 94 Memuaskan
10 Arini 86 80 86 83 Memuaskan
11 Pandu 87 92 95 91 Pujian
12 Sukma 82 88 90 91 Sangat Memuaskan
13 Vina 85 89 86 89 Sangat Memuaskan
14 Prema 91 84 90 88 Pujian
15 Dina 70 89 89 98 Memuaskan

Tabel 2. Klasifikasi Nilai Rerataan


Klasifikasi nilai rerataan
A 90 < x ≤ 100
B 80 < x ≤ 90
C 70 < x ≤ 80
D 60 < x ≤ 70
E 60 > x

Tabel 3. Predikat Kelulusan Mahasiswa


Predikat Kelulusan Mahasiswa
Pujian 3.51 < x ≤ 4.00
Sangat Memuaskan 2.76 ≤ x ≤ 3.50
Memuaskan 2.00 ≤ x ≤ 2.75
A. Tabel Kerja
Berdasarkan data di atas diperoleh tabel kerja sebagai berikut.

Tabel 4. Tabel Kerja

Sangat
Jumlah Pujian Memuaskan
Node Memuaskan
Kasus (S) (S1) (S3)
(S2)
1 Total 15 4 4 7
Matematika
A 2 2 0 0
B 8 2 4 2
C 4 0 0 4
D 1 0 0 1
E 0 0 0 0
Fisika
A 2 2 0 0
B 9 2 4 3
C 4 0 0 4
D 0 0 0 0
E 0 0 0 0
Kimia
A 3 2 0 1
B 10 2 4 4
C 1 0 0 1
D 1 0 0 1
E 0 0 0 0
Biologi
A 6 1 3 2
B 8 2 1 5
C 0 0 0 0
D 1 1 0 0
E 0 0 0 0

B. Menentukan Nilai Entropy dan Gain


1. Menentukan Nilai Entropy
n
Entropy ( S )    pi  ( 2 log pi )
i 1

a. Entropy Baris Total


n
Entropy (Total )    pi  ( 2 log pi )
i 1
4 4 4 4 7 7
= (− × ( 2𝑙𝑜𝑔 )) + (− × ( 2𝑙𝑜𝑔 )) + (− × ( 2𝑙𝑜𝑔 )) = 1.53
15 15 15 15 15 15
b. Entropy Baris Matematika-A
n
Entropy ( Matematika  A)    pi  ( 2 log pi )
i 1

2 2 0 0 0 0
= (− × ( 2𝑙𝑜𝑔 )) + (− × ( 2𝑙𝑜𝑔 )) + (− × ( 2𝑙𝑜𝑔 )) ≈ 0
2 2 2 2 2 2
Jika salah satu kolom pada baris yang dihitung nilai Entropynya bernilai 0, maka
nilai Entropy dari baris tersebut 0. Lakukan langkah yang sama hingga
memperoleh hasil seperti tabel 5.

Tabel 5. Entropy

Sangat
Jumlah Pujian Memuaskan
Node Memuaskan Entropy
Kasus (S) (S1) (S3)
(S2)
1 Total 15 4 4 7 1.530124965
Matematika
A 2 2 0 0 0
B 8 2 4 2 1.5
C 4 0 0 4 0
D 1 0 0 1 0
E 0 0 0 0 0
Fisika
A 2 2 0 0 0
B 9 2 4 3 1.530493057
C 4 0 0 4 0
D 0 0 0 0 0
E 0 0 0 0 0
Kimia
A 3 2 0 1 0
B 10 2 4 4 1.521928095
C 1 0 0 1 0
D 1 0 0 1 0
E 0 0 0 0 0
Biologi
A 6 1 3 2 1.459147917
B 8 2 1 5 1.298794941
C 0 0 0 0 0
D 1 1 0 0 0
E 0 0 0 0 0
2. Menentukan Gain
n
| Si |
Gain ( S , A)  Entropy ( S )    Entropy ( Si )
i 1 | S |

a. Menentukan Gain Matematika


Gain(Total, Matematika)
2 8 4 1
= 1.53 − (( × 0) + ( × 1.5) + ( × 0) + ( × 0)) = 0.73
15 15 15 15
b. Menentukan Gain Matematika
Gain(Total, Fisika)
2 9 4
= 1.53 − (( × 0) + ( × 1.5) + ( × 0)) = 0.611
15 15 15
dan seterusnya seperti tabel 6.
Tabel 6. Gain

Jumlah Sangat
Pujian Memuaskan
Node Kasus Memuaskan Entropy Gain
(S1) (S3)
(S) (S2)
1 Total 15 4 4 7 1.530124965
Matematika 0.730124965
A 2 2 0 0 0
B 8 2 4 2 1.5
C 4 0 0 4 0
D 1 0 0 1 0
E 0 0 0 0 0
Fisika 0.611829131
A 2 2 0 0 0
B 9 2 4 3 1.530493057
C 4 0 0 4 0
D 0 0 0 0 0
E 0 0 0 0 0
Kimia 0.515506235
A 3 2 0 1 0
B 10 2 4 4 1.521928095
C 1 0 0 1 0
D 1 0 0 1 0
E 0 0 0 0 0
Biologi 0.253775163
A 6 1 3 2 1.459147917
B 8 2 1 5 1.298794941
C 0 0 0 0 0
D 1 1 0 0 0
E 0 0 0 0 0
Atribut yang menjadi akar ditentukan dengan melihat nilai Gain tertinggi.
Atribut yang memiliki nilai Gain tertinggi adalah “Matematika”. Maka, atribut tersebut
menjadi akar dalam pohon keputusan ini. Atribut Matematika memiliki lima bagian
yaitu A, B, C, D, dan E. Dari kelima instance atribut tersebut, “A” memiliki Entropy 0.
Mengingat nilai Entropy mempunyai makna yakni menentukan seberapa informatif
sebuah masukan atribut untuk menghasilkan sebuah atribut lain tertentu. Hal tersebut
berarti “A” sudah dapat mengklasifikasikan kasus menjadi 1 keputusan dengan
memperhatikan nilai untuk baris Matematika-A dan kolom atribut target. Dengan
melihat nilai terbesar dari 2 kolom keputusan tersebut, maka dapat disimpulkan untuk
A diklasifikasikan sebagai “Sangat Memuaskan” dan berlaku pula untuk nilai atribut
“C” dan “D” sudah mengklasifikasikan kasus menjadi 1 keputusan yaitu
“Memuaskan”. Hal tersebut berarti tidak perlunya ada perhitungan lebih lanjut lagi
untuk A, C, dan D. Akan tetapi, untuk “B” masih perlu dilakukan perhitungan lagi.
Untuk nilai atribut E bisa diabaikan atau dihilangkan karena tidak memiliki nilai
sehingga diartikan bahwa E tidak berpengaruh. Sampai disini, adapun pohon keputusan
sementara menjadi sebagi berikut.

Matematika

A B C, D

Pujian ? Memuaskan

Gambar 1. Pohon Keputusan Sementara

Fokus pada atribut Matematika-B. Jumlah kasus untuk keputusan Cumlaude,


jumlah kasus untuk keputusan Sangat Memuaskan, jumlah kasus untuk keputusan
Memuaskan dan Entopy dari Matematika B digunakan kembali untuk melakukan
perhitungan Node selanjutnya. Adapun tabel kerjanya sebagai berikut.
Tabel 7. Tabel Kerja Node 1.2

Jumlah Sangat
Pujian Memuaskan
Node Kasus Memuaskan Entropy Gain
(S1) (S3)
(S) (S2)
1.2 Matematika
(B) 8 2 4 2
Fisika 1.5
A 2 2 0 0 0
B 5 0 4 1 0
C 1 0 0 1 0
D 0 0 0 0 0
E 0 0 0 0 0
Kimia 0.2935
A 1 1 0 0 0
B 7 1 4 2 1.378
C 0 0 0 0 0
D 0 0 0 0 0
E 0 0 0 0 0
Biologi 0.75
A 4 1 3 0 0
B 4 1 1 2 1.5
C 0 0 0 0 0
D 0 0 0 0 0
E 0 0 0 0 0

Pada Node 1.2, atribut yang memiliki nilai Gain tertinggi adalah Fisika. Jadi
cabang dari Matematika-B adalah atribut Fisika. Jika terdapat Nilai Gain yang sama
maka untuk menentukan yang menjadi cabang, salah satu caranya adalah dengan
memberi bobot.
Atribut Fisika memiliki lima bagian atribut yaitu A, B, C, D, dan E. Dari kelima
instance atribut tersebut, diperoleh:
1. A, sudah dapat diklasifikasikan kasus menjadi 1 keputusan yaitu “Pujian”.
2. B, sudah mengklasifikasikan kasus menjadi 2 keputusan dengan Entropy yang
bernilai 0. Dengan melihat kecenderungan nilai terbesar dari 2 kolom keputusan
tersebut, maka dapat disimpulkan untuk B diklasifikasikan sebagai “Sangat
Memuaskan”.
3. C, sudah dapat diklasifikasikan kasus menjadi 1 keputusan yaitu “Memuaskan”.
4. Untuk nilai atribut D dan E bisa diabaikan/dihilangkan karena tidak berpengaruh.
Sampai disini, adapun pohon keputusan yang terbentuk yaitu sebagai berikut.
Matematika

A B C, D

Pujian FISIKA Memuaskan

A B C

Sangat
Pujian Memuaskan
Memuaskan

Gambar 2. Pohon Keputusan


5. Algoritma Naïve Bayes
Penerapan Algoritma Naïve Bayes untuk Memprediksi Waktu Studi dengan data training,
kriteria, dan data testing sebagai berikut.
Tabel 1. Data Training
Rata-rata Nilai Raport
No Nama Waktu Lulus
Matematika Fisika Kimia Biologi
1 Krisnawa 74 76 95 90 Tidak Tepat Waktu
2 Sanis 89 86 89 92 Tepat Waktu
3 Wira 95 88 95 75 Tepat Waktu
4 Levi 85 84 84 96 Tepat Waktu
5 Aldy 75 80 75 89 Tidak Tepat Waktu
6 Bayu 83 82 86 85 Tidak Tepat Waktu
7 Agung 89 91 86 86 Tepat Waktu
8 Koji 79 83 75 87 Tidak Tepat Waktu
9 Cintya 76 73 72 94 Tidak Tepat Waktu
10 Arini 84 80 86 83 Tidak Tepat Waktu
11 Pandu 77 92 95 91 Tepat Waktu
12 Sukma 82 75 75 86 Tepat Waktu
13 Vina 85 89 86 89 Tepat Waktu
14 Prema 91 87 90 88 Tepat Waktu
15 Dina 77 89 89 76 Tidak Tepat Waktu

Tabel 2. Kriteria
Klasifikasi Penilaian
x > 80 A
x ≤ 80 B

Tabel 3. Data Testing


Rata-rata Nilai Raport
No Nama
Matematika Fisika Kimia Biologi
1 Samsul 88 76 77 90
2 Bambang 94 82 89 71
3 Dedi 95 88 95 75
4 Puspa 60 77 76 96

A. Menghitung Jumlah Class


P(Y = Tepat Waktu) adalah banyak data “Tepat Waktu” pada kolom “Waktu Lulus”
banyak data keseluruhan, sedangkan P(Y = Tidak Tepat Waktu) adalah banyak data
“Tidak Tepat Waktu” pada kolom “Waktu Lulus” banyak data keseluruhan.
Tabel 4. Peluang Tepat Waktu dan Tidak Tepat Waktu
P(Y = Tepat Waktu) 0.533333
P(Y = Tidak Tepat Waktu) 0.466667

B. Menghitung Jumlah Kasus yang Sama Dengan Class yang Sama


Pada tahap ini dilakukan perhitungan peluang dari masing-masing mata pelajaran yaitu
Peluang Matematika A lulus tepat waktu, Matematika B lulus tidak tepat waktu dan
seterusnya seperti tabel berikut.

Tabel 5. Peluang Mapel Matematika


P(Mat = A|Y = Tepat Waktu) 0.25
P(Mat = A|Y = TidakTepat Waktu) 0
P(Mat = B|Y = Tepat Waktu) 0.75
P(Mat = B|Y = TidakTepat Waktu) 1

Tabel 6. Peluang Mapel Fisika


P(FIS = A|Y = Tepat Waktu) 0.25
P(FIS = A|Y = Tidak Tepat Waktu) 0
P(FIS = B|Y = Tepat Waktu) 0.75
P(FIS = B|Y = TidakTepat Waktu) 1

Tabel 7. Peluang Mapel Kimia


P(KIM = A|Y = Tepat Waktu) 0.25
P(KIM = A|Y = Tidak Tepat Waktu) 0.142857
P(KIM = B|Y = Tepat Waktu) 0.75
P(KIM = B|Y = TidakTepat Waktu) 0.857143

Tabel 8. Peluang Mapel Biologi


P(BIO = A|Y = Tepat Waktu) 0.5
P(BIO = A|Y = Tidak Tepat Waktu) 0.285714
P(BIO = B|Y = Tepat Waktu) 0.5
P(BIO = B|Y = TidakTepat Waktu) 0.714286

C. Kalikan Semua Peluang Tepat Waktu dan Tidak Tepat Waktu


Pada tahap ini dilakukan perkalian dari peluang masing-masing variabel yang dimiliki
oleh mahasiswa.
Tabel 9. Nilai Raport Sesuai Kriteria
Rata-rata Nilai Raport
No Nama
Matematika Fisika Kimia Biologi
1 Samsul A B B A
2 Bambang A A A B
3 Dedi A A A B
4 Puspa B B B A

1. Samsul “Tepat Waktu”


P(Mat = A|Y = Tepat Waktu) × P(Mat = B|Y = Tepat Waktu) × P(Kim = B|Y = Tepat
Waktu) × P(Bio = A|Y = Tepat Waktu) = 0.25 × 0.75 × 0.75 × 0.5 = 0.0375
2. Samsul “Tidak Tepat Waktu”
P(Mat = A|Y = Tidak Tepat Waktu) × P(Mat = B|Y = Tidak Tepat Waktu) × P(Kim =
B|Y = Tidak Tepat Waktu) × P(Bio = A|Y = Tidak Tepat Waktu) = 0 × 1 × 0.857143
× 0.285714 = 0
dan seterusnya seperti tabel berikut.

Tabel 10. Peluang Tepat Waktu dan Tidak Tepat Waktu


Rata-rata Nilai Raport Peluang Peluang
No Nama Tepat Tidak Tepat
Matematika Fisika Kimia Biologi Waktu Waktu
1 Samsul 88 76 77 90 0.0375 0
2 Bambang 94 82 89 71 0.004166667 0
3 Dedi 95 88 95 75 0.004166667 0
4 Puspa 60 77 76 96 0.1125 0.114285714

D. Membandingkan Class Tepat Waktu dan Tidak Tepat Waktu


Pada tahap ini dilakukan pembandingan antara Peluang Tepat Waktu dengan Peluang
Tidak Tepat Waktu. Peluang yang lebih besar akan diambil dijadikan keputusan seperti
tabel berikut.
Tabel 11. Prediksi Waktu Lulus
Rata-rata Nilai Raport Peluang Peluang
Waktu
No Nama Tepat Tidak Tepat
Matematika Fisika Kimia Biologi Lulus
Waktu Waktu
Tepat
1 Samsul 88 76 77 90 0.0375 0
Waktu
Tepat
2 Bambang 94 82 89 71 0.00416 0
Waktu
Tepat
3 Dedi 95 88 95 75 0.00416 0
Waktu
Tidak
4 60 77 76 96 0.112 0.114 Tepat
Puspa
Waktu
6. Algoritma Iterative Dichotomizer 3
Penerapan Algoritma ID3 untuk Memprediksi Waktu Studi dengan data sebagai berikut.
Tabel 1. Data Rataan Nilai Raport dan Waktu Lulus Mahasiswa
Rata-rata Nilai Raport
No Nama Waktu Lulus
Matematika Fisika Kimia Biologi
1 Krisnawa 74 76 95 90 Tidak Tepat Waktu
2 Sanis 89 86 89 92 Tepat Waktu
3 Wira 95 88 95 75 Tepat Waktu
4 Levi 85 84 84 96 Tepat Waktu
5 Aldy 75 80 75 89 Tidak Tepat Waktu
6 Bayu 83 82 86 85 Tidak Tepat Waktu
7 Agung 89 91 86 86 Tepat Waktu
8 Koji 79 83 75 87 Tidak Tepat Waktu
9 Cintya 76 73 72 94 Tidak Tepat Waktu
10 Arini 84 80 86 83 Tidak Tepat Waktu
11 Pandu 77 92 95 91 Tepat Waktu
12 Sukma 82 75 75 86 Tepat Waktu
13 Vina 85 89 86 89 Tepat Waktu
14 Prema 91 87 90 88 Tepat Waktu
15 Dina 77 89 89 76 Tidak Tepat Waktu

Tabel 2. Kriteria Nilai


Klasifikasi Nilai
Baik 85 < x
Buruk x ≤ 85

A. Pengelompokan Data Sesuai Kriteria

Tabel 3. Data Nilai Raport Sesuai dengan Kriteriaa


Baik Buruk Total
Mapel
Tepat Tidak Tepat Tidak Tepat Tidak
Matematika 4 0 4 7
Fisika 6 1 2 6
8 7
Kimia 6 4 2 3
Biologi 7 4 1 3

B. Menghitung Nilai Entropy


1. Entropy Total
Menghitung Entropy untuk total dilihat dari tepat waktu atau tidaknya waktu lulus
mahasiswa menggunakan rumus
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆) = −𝑝+ 2𝑙𝑜𝑔 𝑝+ − 𝑝− 2𝑙𝑜𝑔 𝑝−
dengan 𝑝+ untuk atribut tepat waktu dan 𝑝− atribut tidak tepat waktu
8 8 7 7
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.996791632
15 15 15 15

2. Entropy Matematika
a. Entropy Baik
4 4 0 0
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑎𝑖𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 ≈ 0
4 4 4 4
Jika salah satu kolom pada baris yang dihitung nilai Entropynya bernilai 0, maka
nilai Entropy dari baris tersebut 0.
b. Entropy Buruk
4 4 7 7
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑢𝑟𝑢𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.945660305
11 11 11 11
dan seterusnya seperti tabel 4 berikut.

Tabel 4. Entropy Baik dan Buruk


Baik Buruk Entropy Entropy
Mapel
Tepat Tidak Tepat Tidak Baik Buruk
Matematika 4 0 4 7 0 0.945660305
Fisika 6 1 2 6 0.591672779 0.811278124
Kimia 6 4 2 3 0.970950594 0.970950594
Biologi 7 4 1 3 0.945660305 0.811278124

C. Menghitung Nilai Gain


Gain diperoleh menggunakan rumus berikut.
n
| Si |
Gain ( S , A)  Entropy ( S )    Entropy ( Si )
i 1 | S |

1. Gain Matematika
4 11
𝐺𝑎𝑖𝑛(𝑆, 𝑀𝑎𝑡𝑒𝑚𝑎𝑡𝑖𝑘𝑎) = 0.996 − ( ×0+ × 0.945) = 0.303
15 15
2. Gain Fisika
7 8
𝐺𝑎𝑖𝑛(𝑆, 𝐹𝑖𝑠𝑖𝑘𝑎) = 0.996 − ( × 0.591 + × 0.811) = 0.288
15 15
dan seterusnya seperti tabel 5 berikut.
Tabel 5. Information Gain
Baik Buruk Entropy Entropy
Mapel Gain
Tepat Tidak Tepat Tidak Baik Buruk
Matematika 4 0 4 7 0 0.945660305 0.303307409
Fisika 6 1 2 6 0.591672779 0.811278124 0.287996002
Kimia 6 4 2 3 0.970950594 0.970950594 0.025841038
Biologi 7 4 1 3 0.945660305 0.811278124 0.086966575

Dari keempat nilai Information Gain yang didapat, Information Gain (S,
Matematika) adalah yang terbesar sehingga atribut Matematika sebagai root. Semua
sampel Baik termasuk dalam kelas “Tepat Waktu” maka fungsi ini akan berhenti dan
mengembalikan satu simpul tunggal Root dengan label Tepat Waktu seperti gambar
berikut.

Matematika

Baik Buruk

Tepat
Waktu ?

Gambar 1. Pohon Keputusan Sementara

D. Menghitung Nilai Entropy Iterasi ke-2


1. Entropy Matematika “Buruk”
4 4 7 7
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.945660305
11 11 11 11

Tabel 6. Data Nilai Raport dengan Nilai Matematika dengan Kategor Buruk
Baik Buruk
Mapel
Tepat Tidak Tepat Tidak
Fisika 2 1 2 6
Kimia 2 4 2 3
Biologi 4 4 0 3
2. Entropy Fisika
a. Entropy Baik
2 2 1 1
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑎𝑖𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.918295834
3 3 3 3
b. Entropy Buruk
2 2 6 6
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑢𝑟𝑢𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.811278124
8 8 8 8
dan seterusnya seperti tabel berikut.
Tabel 7. Entropy Baik dan Buruk
Baik Buruk Entropy Entropy
Mapel
Tepat Tidak Tepat Tidak Baik Buruk
Fisika 2 1 2 6 0.918295834 0.811278124
Kimia 2 4 2 3 0.918295834 0.970950594
Biologi 4 4 0 3 1 0

E. Menghitung Nilai Gain


Dengan Cara yang sama diperoleh nilai sebagai berikut
Tabel 8. Information Gain
Entropy Entropy
Baik Buruk Gain
Mapel Baik Buruk
Tepat Tidak Tepat Tidak
Fisika 2 1 2 6 0.918295834 0.811278124 0.105195532
Kimia 2 4 2 3 0.918295834 0.970950594 0.003430489
Biologi 4 4 0 3 1 0 0.218387577

Dari ketiga nilai Information Gain yang didapat, Information Gain (S, Biologi)
adalah yang terbesar sehingga atribut Biologi sebagai sub root. Semua sampel Buruk
termasuk dalam kelas “Tidak Tepat Waktu”, kemudian dilanjutkan ke iterasi berikutnya
dengan Biologi “Baik” sebagai sub Root

F. Perhitungan Iterasi ke-3 dengan Biologi “Baik” sebagai sub Root


4 4 4 4
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 1
8 8 8 8

Entropy Entropy
Baik Buruk Gain
Mapel Baik Buruk
Tepat Tidak Tepat Tidak
Fisika 2 0 2 4 0 0.918295834 0.311278124
Kimia 2 1 2 3 0.918295834 0.970950594 0.048794941

Dari kedua nilai Information Gain yang didapat, Information Gain (S, Fisika)
adalah yang terbesar sehingga atribut Fisika sebagai sub root. Semua sampel Baik
termasuk dalam kelas “Tepat Waktu”. Sedangkan untuk kasus Fisika “Buruk” 2 sampel
lulus tepat waktu dan 4 sampel lulus tidak tepat waktu. Jadi dapat disimpulkan apabila
nilai fisika buruk maka cenderung tidak tepat waktu. Sehingga didapat pohon keputusan
sebagai berikut.

Matematika

Baik Buruk

Tepat Waktu
Biologi

Baik Buruk

Tidak Tepat
FISIKA
Waktu

Baik Buruk

Tidak Tepat
Tepat Waktu
Waktu
Gambar 2. Pohon Keputusan
7. Algoritma K-Means Clustering
Penerapan algoritma K-Means Clustering untuk pengelompokan siswa pintar, sedang, dan
kurang pada data berikut.
Tabel 1. Data Mahasiswa
No Nama Mahasiswa UTS UAS Tugas
1 Wira 79 67 74
2 Yoga 80 81 67
3 Anom 71 94 74
4 Wijaya 63 63 85
5 Dede 87 88 76
6 Kurnia 70 83 61
7 Dewa 89 83 94
8 Diva 83 69 80
9 Ari 87 71 75
10 Hendra 75 62 64
11 Setiawan 60 70 60
12 Agung 89 88 86
13 Candra 88 89 85
14 Kusuma 70 65 65
15 Arda 65 66 67

A. Menentukan Pusat Cluster


Titik pusat awal ditetapkan secara random dan didapat titik pusat dari setiap cluster
seperti pada tabel 2.
Tabel 2. Titik Pusat Awal Setiap Cluster
Nama
No Titik Pusat Awal UTS UAS Tugas
Mahasiswa
1 Cluster 1 Hendra 75 62 64
2 Cluster 2 Wira 79 67 74
3 Cluster 3 Diva 83 69 80

B. Mengalokasikan Semua Data ke Cluster Terdekat


Gunakan metode hard k-means untuk mengalokasikan setiap data ke dalam suatu
cluster, sehingga data akan dimasukan dalam suatu cluster yang memiliki jarak paling
dekat dengan titik pusat dari setiap cluster.

𝑑(𝑥, 𝑦) = √∑(𝑥𝑖 − 𝑦𝑖 )2
𝑖=1

Misalnya sebagai contoh pada data pertama dengan Cluster 1.


𝑑(𝑊𝑖𝑟𝑎, 𝐶1) = √(79 − 75)2 + (67 − 62)2 +(74 − 64)2 = 11.87
dan seterusnya sehingga diperoleh data sebagai berikut.

Tabel 3. Jarak Data ke Cluster


Nama Jarak ke Terdekat
No UTS UAS Tugas
Mahasiswa C1 C2 C3 ke
1 Wira 79 67 74 11.87434 0 7.483315 C2
2 Yoga 80 81 67 19.87461 15.68439 17.94436 C2
3 Anom 71 94 74 33.76389 28.16026 28.37252 C2
4 Wijaya 63 63 85 24.20744 19.82423 21.47091 C2
5 Dede 87 88 76 31.04835 22.56103 19.82423 C3
6 Kurnia 70 83 61 21.79449 22.49444 26.94439 C1
7 Dewa 89 83 94 39.20459 27.49545 20.68816 C3
8 Diva 83 69 80 19.20937 7.483315 0 C3
9 Ari 87 71 75 18.60108 9 6.708204 C3
10 Hendra 75 62 64 0 11.87434 19.20937 C1
11 Setiawan 60 70 60 17.46425 23.79075 30.4959 C1
12 Agung 89 88 86 36.82391 26.1725 20.80865 C3
13 Candra 88 89 85 36.59235 26.1916 21.2132 C3
14 Kusuma 70 65 65 5.91608 12.8841 20.24846 C1
15 Arda 65 66 67 11.18034 15.68439 22.40536 C1

C. Menentukan Kembali Pusat Cluster


Pada tahap ini dilakukan penentuan kembali titik pusat cluster yang baru berdasarkan
rata-rata dari data-data yang terletak pada cluster yang sama.

Tabel 4. Rata-rata dari Masing-masing Cluster


Cluster 1 Cluster 2 Cluster 3
No
UTS UAS Tugas UTS UAS Tugas UTS UAS Tugas
1 70 83 61 79 67 74 89 83 94
2 75 62 64 80 81 67 83 69 80
3 60 70 60 71 94 74 87 71 75
4 70 65 65 63 63 85 87 88 76
5 65 66 67 89 88 86
6 88 89 85
Rata-rata 68 69.2 63.4 73.25 76.25 75 87.1667 81.3333 82.66667

Sehingga diperoleh pusat cluster baru yaitu sebagai berikut.

Tabel 5. Pusat Cluster Baru


No Cluster UTS UAS Tugas
1 Cluster 1 68 69.2 63.4
2 Cluster 2 73.25 76.25 75
3 Cluster 3 87.16666667 81.33333 82.66667
D. Menghitung Jarak Data ke Pusat Cluster
Dengan cara yang sama pada point B dilakukan perhitungan jarak data ke masing-
masing kluster, kemudian dipilih jarak minimum untuk memilih data cenderung
terdekat ke C1, C2, atau C3.

Tabel 6. Jarak Data ke Pusat Cluster


Nama Jarak ke Terdekat
No UTS UAS Tugas
Mahasiswa C1 C2 C3 ke
1 Wira 79 67 74 15.43373 10.93732 18.63465 C2
2 Yoga 80 81 67 17.21046 11.49456 17.23127 C2
3 Anom 71 94 74 27.13669 17.91996 22.29163 C2
4 Wijaya 63 63 85 23.02173 19.50961 30.4234 C2
5 Dede 87 88 76 29.54996 18.11422 9.429563 C3
6 Kurnia 70 83 61 14.1492 15.87844 27.69326 C1
7 Dewa 89 83 94 39.59545 25.58564 11.60101 C3
8 Diva 83 69 80 22.37409 13.13868 13.28847 C2
9 Ari 87 71 75 22.33383 14.71819 12.86792 C3
10 Hendra 75 62 64 10.05982 18.0866 29.5 C1
11 Setiawan 60 70 60 8.729261 20.96724 37.15172 C1
12 Agung 89 88 86 36.12755 22.51944 7.675719 C3
13 Candra 88 89 85 35.47675 21.91175 8.057088 C3
14 Kusuma 70 65 65 4.91935 15.39886 29.55644 C1
15 Arda 65 66 67 5.674504 15.39886 31.17558 C1

Ulangi langkah tersebut hingga tidak terjadi perubahan yang signifikan. Berdasarkan
data tersebut terdapat 3 kelompok siswa. Setelah dikelompokkan siswa yang tergolong pintar,
sedang, dan kurang dikategorikan berdasarkan kecendrungan nilai dalam kelompok tersebut,
yaitu sebagai berikut.
Tabel 7. Hasil Clustering
Nama
No UTS UAS Tugas Kemampuan
Mahasiswa
1 Wira 79 67 74 SEDANG
2 Yoga 80 81 67 SEDANG
3 Anom 71 94 74 SEDANG
4 Wijaya 63 63 85 SEDANG
5 Dede 87 88 76 PINTAR
6 Kurnia 70 83 61 KURANG
7 Dewa 89 83 94 PINTAR
8 Diva 83 69 80 SEDANG
9 Ari 87 71 75 PINTAR
10 Hendra 75 62 64 KURANG
11 Setiawan 60 70 60 KURANG
12 Agung 89 88 86 PINTAR
13 Candra 88 89 85 PINTAR
14 Kusuma 70 65 65 KURANG
15 Arda 65 66 67 KURANG
8. Algoritma Fuzzy C-Means
Pengklasteran dengan metode Fuzzy C-Means akan mengelempokkan siswa-siswa yang
tergolong pintar, sedang, dan kurang berdasarkan nilai UTS, UAS, dan Tugas dari data
berikut.
Tabel 1. Data Mahasiswa
No Nama Mahasiswa UTS UAS Tugas
1 Wira 79 67 74
2 Yoga 80 81 67
3 Anom 71 94 74
4 Wijaya 63 63 85
5 Dede 87 88 76
6 Kurnia 70 83 61
7 Dewa 89 83 94
8 Diva 83 69 80
9 Ari 87 71 75
10 Hendra 75 62 64
11 Setiawan 60 70 60
12 Agung 89 88 86
13 Candra 88 89 85
14 Kusuma 70 65 65
15 Arda 65 66 67

A. Menetapkan Nilai Awal


Dengan menggunakan Fuzzy C-Means dapat ditetapkan nilai awal sebagai berikut.
1. Jumlah cluster (c ) =3
2. Pangkat (w) =2
3. Maksimum Iterasi (MaxIter) = 100
4. Error terkecil yang diharapkan ( ) = 0,1

5. Fungsi objektif awal ( P0 ) =0

6. Iterasi awal (t ) =1

B. Membentuk Matriks Partisi U


Bangkitkan bilangan random  ik dengan i  1,2,3....., n dan k  1,2,3,....., c.  ik
merupakan derajat keanggotaan suatu data yang menunjukkan seberapa besar data
tersebut menjadi kelompok dalam suatu cluster. Nilai bilangan random  ik terletak
dari interval 0 sampai dengan 1 yang dibuat secara random sebagai elemen dari matriks
partisi U. Misalkan matriks partisi awal U yang terbentuk adalah sebagai berikut.
0,3 0,4 0,3
0,2 0,2 0,6

0,5 0,3 0,2
 
0,3 0,4 0,3
0,2 0,3 0,5
 
U  0,1 0,4 0,5
0,4 0,3 0,3
 
0,2 0,5 0,3
0,3 0,4 0,3
 
0,3 0,3 0,4
 
0,2 0,4 0,4

C. Menghitung Pusat Cluster Pertama

   
n
 X ij
2
ik
Pusat Cluster pertama dapat dihitung dengan rumus: Vkj  i 1
n

  
2
ik
i 1

Tabel 2. Perhitungan Pusat Cluster Pertama


Derajat
Keanggo- Data yang di
taan pada Cluster (  i1 ) 2 (  i1 ) 2  X i1 (  i1 ) 2  X i 2 (  i1 ) 2  X i 3
Cluster Ke-1
 i1 X i1 X i2 X i3
0.3 79 67 74 0.09 7.11 6.03 6.66
0.2 80 81 67 0.04 3.2 3.24 2.68
0.5 71 94 74 0.25 17.75 23.5 18.5
0.3 63 63 85 0.09 5.67 5.67 7.65
0.2 87 88 76 0.04 3.48 3.52 3.04
0.1 70 83 61 0.01 0.7 0.83 0.61
0.4 89 83 94 0.16 14.24 13.28 15.04
0.2 83 69 80 0.04 3.32 2.76 3.2
0.3 87 71 75 0.09 7.83 6.39 6.75
0.3 75 62 64 0.09 6.75 5.58 5.76
0.3 60 70 60 0.09 5.4 6.3 5.4
0.2 89 88 86 0.04 3.56 3.52 3.44
0.5 88 89 85 0.25 22 22.25 21.25
0.3 70 65 65 0.09 6.3 5.85 5.85
0.2 65 66 67 0.04 2.6 2.64 2.68
 1.41 109.91 111.36 108.51

[(  )  X ij ] /  (  i1 )
2 2
i1 77.9503 78.97872 76.95745
Tabel 3. Perhitungan Pusat Cluster Kedua
Derajat
Keanggo- Data yang di
taan pada Cluster (i 2 ) 2 (  i 2 ) 2  X i1 (i 2 ) 2  X i 2 (i 2 ) 2  X i3
Cluster Ke-2
i2 X i1 X i2 X i3
0.4 79 67 74 0.16 12.64 10.72 11.84
0.2 80 81 67 0.04 3.2 3.24 2.68
0.3 71 94 74 0.09 6.39 8.46 6.66
0.4 63 63 85 0.16 10.08 10.08 13.6
0.3 87 88 76 0.09 7.83 7.92 6.84
0.4 70 83 61 0.16 11.2 13.28 9.76
0.3 89 83 94 0.09 8.01 7.47 8.46
0.5 83 69 80 0.25 20.75 17.25 20
0.4 87 71 75 0.16 13.92 11.36 12
0.3 75 62 64 0.09 6.75 5.58 5.76
0.4 60 70 60 0.16 9.6 11.2 9.6
0.2 89 88 86 0.04 3.56 3.52 3.44
0.3 88 89 85 0.09 7.92 8.01 7.65
0.4 70 65 65 0.16 11.2 10.4 10.4
0.3 65 66 67 0.09 5.85 5.94 6.03
 1.83 138.9 134.43 134.72

[(  )  X ij ] /  ( i 2 )
2 2
i2 75.90163934 73.45902 73.61749

Tabel 4. Perhitungan Pusat Cluster Ketiga


Derajat
Keanggo- Data yang di
taan pada Cluster (i3 ) 2 (  i 3 ) 2  X i1 (i3 ) 2  X i 2 ( i3 ) 2  X i3
Cluster Ke-3
 i3 X i1 X i2 X i3
0.3 79 67 74 0.09 7.11 6.03 6.66
0.6 80 81 67 0.36 28.8 29.16 24.12
0.2 71 94 74 0.04 2.84 3.76 2.96
0.3 63 63 85 0.09 5.67 5.67 7.65
0.5 87 88 76 0.25 21.75 22 19
0.5 70 83 61 0.25 17.5 20.75 15.25
0.3 89 83 94 0.09 8.01 7.47 8.46
0.3 83 69 80 0.09 7.47 6.21 7.2
0.3 87 71 75 0.09 7.83 6.39 6.75
0.4 75 62 64 0.16 12 9.92 10.24
0.3 60 70 60 0.09 5.4 6.3 5.4
0.6 89 88 86 0.36 32.04 31.68 30.96
0.2 88 89 85 0.04 3.52 3.56 3.4
0.3 70 65 65 0.09 6.3 5.85 5.85
0.5 65 66 67 0.25 16.25 16.5 16.75
 2.34 182.49 181.25 170.65

[(  )  X ij ] /  ( i 3 )
2 2
i3 77.98717949 77.45726 72.92735

Berdasarkan perhitungan diatas, diperoleh pusat cluster sebagai berikut

77.9503546 78.97872 76.95745


V= 75.9016393 73.45902 73.61749
77.9871795 77.45726 72.92735

D. Menghitung Fungsi Objektif


Fungsi objektif (P1) dapat dihitung dengan menggunakan rumus:
c  m 
2
Pt     X ij  Vkj    ik  
n
w

i 1 k 1   j 1

 

Tabel 5. Perhitungan Fungsi Objektif


3 2 3 2 3 2
 X ij  V1 j  ( i1 )  X ij  V2 j  ( i 2 )  X ij  V3 j  ( i 3 )
Kuadrat Derajat 2 2 2

Keanggotaan data ke-i  j 1   j 1   j 1  L1+L2+L3


( i1 ) 2 ( i 2 ) 2 ( i3 ) 2 L1 L2 L3
0.09 0.16 0.09 13.80043 8.234408 10.03777 32.0726
0.04 0.04 0.36 4.297494 4.698165 18.62492 27.62058
0.25 0.09 0.04 70.67317 40.1494 12.94533 123.7679
0.09 0.16 0.09 48.91638 64.86479 52.14392 165.9251
0.04 0.09 0.25 6.567849 30.62612 50.45534 87.64931
0.01 0.16 0.25 3.340189 45.60971 59.19466 108.1446
0.16 0.09 0.09 68.59423 61.02399 53.64546 183.2637
0.04 0.25 0.09 5.373239 27.75151 13.20085 46.32559
0.09 0.16 0.09 13.44489 20.98107 11.45008 45.87605
0.09 0.09 0.16 41.83894 20.21562 52.40766 114.4622
0.09 0.16 0.09 62.13489 72.04206 49.16392 183.3409
0.04 0.04 0.36 11.40983 21.45336 145.1972 178.0604
0.25 0.09 0.04 66.526 46.57087 15.16961 128.2665
0.09 0.16 0.09 36.1434 28.90326 25.36392 90.41059
0.04 0.09 0.25 17.41239 19.64464 83.76731 120.8243
Fungsi Objektif =  1636.01
E. Menghitung Derajat Keanggotaan Baru
Pada tahap ini dilakukan perbaikan matriks U dengan rumus berikut.
1
m  w1
 ij  2
( X V kj ) 
 ik   j 1 
1
c  m  w1

  ( X ij  Vkj ) 
k 1  j 1
2

Tabel 6. Perhitungan Derajat Keanggotaan Baru


1 1 1 1
 3  2 1  3  2 1  3  21 3  3  21
 ( X ij  V1 j ) 
2
 ( X ij  V2 j ) 
2
 ( X ij  V3 j ) 
2
  ( X ij  V1 j ) 
2

 j 1   j 1   j 1  k 1  j 1 
0.006522 0.019431 0.008966 0.034918
0.009308 0.008514 0.019329 0.037151
0.003537 0.002242 0.00309 0.008869
0.00184 0.002467 0.001726 0.006033
0.00609 0.002939 0.004955 0.013984
0.002994 0.003508 0.004223 0.010725
0.002333 0.001475 0.001678 0.005485
0.007444 0.009009 0.006818 0.023271
0.006694 0.007626 0.00786 0.02218
0.002151 0.004452 0.003053 0.009656
0.001448 0.002221 0.001831 0.0055
0.003506 0.001865 0.002479 0.00785
0.003758 0.001933 0.002637 0.008327
0.00249 0.005536 0.003548 0.011574
0.002297 0.004581 0.002984 0.009863

1
  m w1
 ( X ij  Vkj ) 
2

Berdasarkan perhitungan diatas, dilanjutkan dengan  ik   


j 1
1
c  m  w1

  ( X ij  Vkj ) 
k 1  j 1
2


sehingga diperoleh matriks U baru yaitu sebagai berikut.
0.18676543 0.55646 0.256774
0.2505407 0.229174 0.520285
0.39885314 0.25275 0.348397
0.30499186 0.408894 0.286114
0.43552295 0.210148 0.354329
0.27914038 0.327082 0.393778
0.42525584 0.268881 0.305863
U= 0.31990199 0.387121 0.292977
0.30180139 0.343818 0.354381
0.22277182 0.461056 0.316172
0.26335678 0.403805 0.332838
0.44661231 0.237528 0.31586
0.45127718 0.232072 0.316651
0.21514185 0.478283 0.306576
0.23291064 0.4645 0.302589

Selanjutnya cek kondisi berhenti. Karena P1  P0  1636.01 - 0  1636.01 >   0.1 , dan iterasi

< MaxIter (100), maka lanjutkan perhitungan ke iterasi berikutnya. Iterasi berhenti saat
P1  P0   atau Iterasi sudah mencapai maksimum iterasi yaitu 100. Pada kasus ini proses

berhenti pada iterasi ke 17 dengan P1  P0  0.077654 dan derajat keanggotaan baru sebagai

berikut.

0.06758585 0.204022 0.728392


0.14280072 0.164753 0.692446
0.40803398 0.217199 0.374767
0.16547697 0.482838 0.351685
0.71542763 0.061774 0.222798
0.14628489 0.446595 0.40712
0.80583457 0.055932 0.138234
U= 0.16747609 0.139363 0.693161
0.14809562 0.11002 0.741884
0.05005204 0.713176 0.236772
0.05114729 0.802581 0.146272
0.98143914 0.004754 0.013807
0.98389816 0.004115 0.011987
0.00896455 0.947964 0.043071
0.00684208 0.966339 0.026819

Berdasarkan matriks partisi U tersebut dapat diperoleh informasi mengenai kecenderungan


mahasiswa untuk menjadi anggota kelompok dari suatu cluster. Derajat keanggotaan terbesar
dari data setiap siswa akan menunjukkan kecenderungan tertinggi dari mahasiswa untuk masuk
menjadi anggota kelompok. Tabel 7 menunjukkan derajat keanggotaan data tiap siswa pada
setiap kelompok (cluster) beserta kecenderungan tertinggi para mahasiswa untuk masuk dalam
suatu kelompok.
Tabel 7. Derajat Keanggotaan Tiap Data Pada Setiap Cluster dengan FCM
Nama Derajat Keanggotaan
No UTS UAS Tugas Tertinggi
Mahasiswa C1 C2 C3
1 Wira 79 67 74 0.067585854 0.204022 0.728392 C3
2 Yoga 80 81 67 0.142800724 0.164753 0.692446 C3
3 Anom 71 94 74 0.408033976 0.217199 0.374767 C1
4 Wijaya 63 63 85 0.165476966 0.482838 0.351685 C2
5 Dede 87 88 76 0.715427633 0.061774 0.222798 C1
6 Kurnia 70 83 61 0.146284892 0.446595 0.40712 C2
7 Dewa 89 83 94 0.805834572 0.055932 0.138234 C1
8 Diva 83 69 80 0.167476094 0.139363 0.693161 C3
9 Ari 87 71 75 0.148095617 0.11002 0.741884 C3
10 Hendra 75 62 64 0.050052041 0.713176 0.236772 C2
11 Setiawan 60 70 60 0.051147287 0.802581 0.146272 C2
12 Agung 89 88 86 0.981439139 0.004754 0.013807 C1
13 Candra 88 89 85 0.983898155 0.004115 0.011987 C1
14 Kusuma 70 65 65 0.00896455 0.947964 0.043071 C2
15 Arda 65 66 67 0.006842077 0.966339 0.026819 C2

Setelah dikelompokkan siswa yang tergolong pintar, sedang, dan kurang dikategorikan
berdasarkan kecendrungan nilai dalam kelompok tersebut, yaitu sebagai berikut.

Tabel 8. Hasil Clustering

No Nama Mahasiswa UTS UAS Tugas Kemampuan

1 Wira 79 67 74 SEDANG
2 Yoga 80 81 67 SEDANG
3 Anom 71 94 74 PINTAR
4 Wijaya 63 63 85 KURANG
5 Dede 87 88 76 PINTAR
6 Kurnia 70 83 61 KURANG
7 Dewa 89 83 94 PINTAR
8 Diva 83 69 80 SEDANG
9 Ari 87 71 75 SEDANG
10 Hendra 75 62 64 KURANG
11 Setiawan 60 70 60 KURANG
12 Agung 89 88 86 PINTAR
13 Candra 88 89 85 PINTAR
14 Kusuma 70 65 65 KURANG
15 Arda 65 66 67 KURANG

Anda mungkin juga menyukai