Oleh
Adapun bobot yang digunakan dalam setiap kriteria yaitu sebagai berikut.
Tabel 2. Kriteria Karakter
Karakter Bobot
Sangat Baik 5
Baik 4
Cukup 3
Kurang 2
Sangat Kurang 1
3
𝑟11 = = 0.28603878
√32 + 22 +42 +42 … . +22
2
𝑟12 = = 0.202031
√32 + 22 +42 +42 … . +22
.
.
.
3
𝑟95 = = 0.31448545
√32 + 32 +32 +42 … . +3
Langkah selanjutnya adalah menentukan bobot dari setiap kriteria yang digunakan sebagai
acuan dalam pengambilan suatu keputusan. Penentuan bobot dari setiap kriteria dapat
menggunakan otoritas dari pihak pengambil keputusan yaitu sebagai berikut.
3 1 3
3 2 1
X= 2 1 3
1 3 2
3 2 3
0.4
𝑊 = [0.3]
0.3
B. Normalisasi Matriks X
Setelah dibuat matriks keputusan X selanjutnya menormalisasi matriks keputusan X
xij
rij ; untuk kriteria benefit
Max ( x j )
Min ( x j )
rij ; untuk kriteria cost
xij
𝑥11 3
𝑟11 = = =1
max(𝑥1 ) 3
𝑥12 1
𝑟12 = = = 0.33333
max(𝑥2 ) 3
.
.
.
min(𝑥3 ) 1
𝑟53 = = = 0.33333
𝑥53 3
1 0.333333333 0.333333333
1 0.666666667 1
R= 0.666667 0.333333333 0.333333333
0.333333 1 0.5
1 0.666666667 0.333333333
𝑣𝑖 = ∑ 𝑟𝑖𝑗 × 𝑤𝑗
𝑗=1
1 0.333333 0.333333
1 0.666667 1 0.4
V = 0.666667 0.333333 0.333333 × 0.3
0.333333 1 0.5 0.3
1 0.666667 0.333333
0.6
0.9
V= 0.466667
0.583333
0.7
D. Hasil
Setelah nilai preferensi sudah diperoleh, selanjutnya menentukan perankingan dari
nilai preferensi tersebut. Nilai preferensi V yang diperoleh akan diranking dari yang
terbesar sampai terkecil. Dari perhitungan matriks diatas didapat peringkat
alternatif tertinggi sampai terendah yaitu sebagai berikut.
Langkah selanjutnya adalah menentukan bobot dari setiap kriteria yang digunakan sebagai
acuan dalam pengambilan suatu keputusan. Penentuan bobot dari setiap kriteria dapat
menggunakan otoritas dari pihak pengambil keputusan yaitu sebagai berikut.
Langkah selanjutnya adalah menentukan bobot dari setiap kriteria yang digunakan sebagai
acuan dalam pengambilan suatu keputusan. Penentuan bobot dari setiap kriteria dapat
menggunakan otoritas dari pihak pengambil keputusan yaitu sebagai berikut.
Tabel 2. Bobot Masing-masing Kriteria
Kriteria Bobot
Pengalaman Kerja 4
Pendidikan 3
Jarak Tempat Tinggal 3
3 1 3
3 2 1
X= 2 1 3
1 3 2
3 2 3
4
𝑊 = [3]
3
B. Normalisasi Matriks X
Setelah dibuat matriks keputusan X selanjutnya menormalisasi matriks keputusan X
xij
rij
m 2
x
i 1 ij
𝑥11 3
𝑟11 = = = 0.530330086
2 2 2 √32 + 32 + ⋯ + 32
√𝑥11 + 𝑥21 + ⋯ + 𝑥51
𝑥12 1
𝑟12 = = = 0.229415734
2 2 2 √12 + 22 + ⋯ + 22
√𝑥12 + 𝑥22 + ⋯ + 𝑥52
.
.
.
𝑥53 3
𝑟53 = = = 0.530330086
2 2 2 √32 + 12 + ⋯ + 32
√𝑥13 + 𝑥23 + ⋯ + 𝑥53
D. Menentukan Matriks Solusi Ideal Positif dan Matriks Solusi Ideal Negatif
Solusi ideal positif dinotasikan A , sedangkan solusi ideal negatif dinotasikan A .
Berikut ini adalah persamaan dari A dan A :
A {a1 , a2 , a3 ,..., an } dengan ai max( vi )
A {a1 , a2 , a3 ,..., an } dengan ai min( vi )
a
n 2
Si j 1 j vij
2. Jarak Antara Nilai Setiap Alternatif Dengan Matriks Solusi Ideal Positif
adalah:
a
n 2
Si j 1 j vij
𝑆1 − 1.767766953
𝑐1 + = − + = = 0.562220106
(𝑆1 + 𝑆1 ) 1.767766953 + 1.3764944
+
𝑆2 − 1.572795031
𝑐2 = − + = = 0.554350367
(𝑆2 + 𝑆2 ) 1.572795031 + 1.26439085
.
.
.
−
𝑆5 1.897019823
𝑐5 + = − + = = 0.733781
(𝑆5 + 𝑆5 ) 1.897019823 + 0.6882472
Sangat
Jumlah Pujian Memuaskan
Node Memuaskan
Kasus (S) (S1) (S3)
(S2)
1 Total 15 4 4 7
Matematika
A 2 2 0 0
B 8 2 4 2
C 4 0 0 4
D 1 0 0 1
E 0 0 0 0
Fisika
A 2 2 0 0
B 9 2 4 3
C 4 0 0 4
D 0 0 0 0
E 0 0 0 0
Kimia
A 3 2 0 1
B 10 2 4 4
C 1 0 0 1
D 1 0 0 1
E 0 0 0 0
Biologi
A 6 1 3 2
B 8 2 1 5
C 0 0 0 0
D 1 1 0 0
E 0 0 0 0
2 2 0 0 0 0
= (− × ( 2𝑙𝑜𝑔 )) + (− × ( 2𝑙𝑜𝑔 )) + (− × ( 2𝑙𝑜𝑔 )) ≈ 0
2 2 2 2 2 2
Jika salah satu kolom pada baris yang dihitung nilai Entropynya bernilai 0, maka
nilai Entropy dari baris tersebut 0. Lakukan langkah yang sama hingga
memperoleh hasil seperti tabel 5.
Tabel 5. Entropy
Sangat
Jumlah Pujian Memuaskan
Node Memuaskan Entropy
Kasus (S) (S1) (S3)
(S2)
1 Total 15 4 4 7 1.530124965
Matematika
A 2 2 0 0 0
B 8 2 4 2 1.5
C 4 0 0 4 0
D 1 0 0 1 0
E 0 0 0 0 0
Fisika
A 2 2 0 0 0
B 9 2 4 3 1.530493057
C 4 0 0 4 0
D 0 0 0 0 0
E 0 0 0 0 0
Kimia
A 3 2 0 1 0
B 10 2 4 4 1.521928095
C 1 0 0 1 0
D 1 0 0 1 0
E 0 0 0 0 0
Biologi
A 6 1 3 2 1.459147917
B 8 2 1 5 1.298794941
C 0 0 0 0 0
D 1 1 0 0 0
E 0 0 0 0 0
2. Menentukan Gain
n
| Si |
Gain ( S , A) Entropy ( S ) Entropy ( Si )
i 1 | S |
Jumlah Sangat
Pujian Memuaskan
Node Kasus Memuaskan Entropy Gain
(S1) (S3)
(S) (S2)
1 Total 15 4 4 7 1.530124965
Matematika 0.730124965
A 2 2 0 0 0
B 8 2 4 2 1.5
C 4 0 0 4 0
D 1 0 0 1 0
E 0 0 0 0 0
Fisika 0.611829131
A 2 2 0 0 0
B 9 2 4 3 1.530493057
C 4 0 0 4 0
D 0 0 0 0 0
E 0 0 0 0 0
Kimia 0.515506235
A 3 2 0 1 0
B 10 2 4 4 1.521928095
C 1 0 0 1 0
D 1 0 0 1 0
E 0 0 0 0 0
Biologi 0.253775163
A 6 1 3 2 1.459147917
B 8 2 1 5 1.298794941
C 0 0 0 0 0
D 1 1 0 0 0
E 0 0 0 0 0
Atribut yang menjadi akar ditentukan dengan melihat nilai Gain tertinggi.
Atribut yang memiliki nilai Gain tertinggi adalah “Matematika”. Maka, atribut tersebut
menjadi akar dalam pohon keputusan ini. Atribut Matematika memiliki lima bagian
yaitu A, B, C, D, dan E. Dari kelima instance atribut tersebut, “A” memiliki Entropy 0.
Mengingat nilai Entropy mempunyai makna yakni menentukan seberapa informatif
sebuah masukan atribut untuk menghasilkan sebuah atribut lain tertentu. Hal tersebut
berarti “A” sudah dapat mengklasifikasikan kasus menjadi 1 keputusan dengan
memperhatikan nilai untuk baris Matematika-A dan kolom atribut target. Dengan
melihat nilai terbesar dari 2 kolom keputusan tersebut, maka dapat disimpulkan untuk
A diklasifikasikan sebagai “Sangat Memuaskan” dan berlaku pula untuk nilai atribut
“C” dan “D” sudah mengklasifikasikan kasus menjadi 1 keputusan yaitu
“Memuaskan”. Hal tersebut berarti tidak perlunya ada perhitungan lebih lanjut lagi
untuk A, C, dan D. Akan tetapi, untuk “B” masih perlu dilakukan perhitungan lagi.
Untuk nilai atribut E bisa diabaikan atau dihilangkan karena tidak memiliki nilai
sehingga diartikan bahwa E tidak berpengaruh. Sampai disini, adapun pohon keputusan
sementara menjadi sebagi berikut.
Matematika
A B C, D
Pujian ? Memuaskan
Jumlah Sangat
Pujian Memuaskan
Node Kasus Memuaskan Entropy Gain
(S1) (S3)
(S) (S2)
1.2 Matematika
(B) 8 2 4 2
Fisika 1.5
A 2 2 0 0 0
B 5 0 4 1 0
C 1 0 0 1 0
D 0 0 0 0 0
E 0 0 0 0 0
Kimia 0.2935
A 1 1 0 0 0
B 7 1 4 2 1.378
C 0 0 0 0 0
D 0 0 0 0 0
E 0 0 0 0 0
Biologi 0.75
A 4 1 3 0 0
B 4 1 1 2 1.5
C 0 0 0 0 0
D 0 0 0 0 0
E 0 0 0 0 0
Pada Node 1.2, atribut yang memiliki nilai Gain tertinggi adalah Fisika. Jadi
cabang dari Matematika-B adalah atribut Fisika. Jika terdapat Nilai Gain yang sama
maka untuk menentukan yang menjadi cabang, salah satu caranya adalah dengan
memberi bobot.
Atribut Fisika memiliki lima bagian atribut yaitu A, B, C, D, dan E. Dari kelima
instance atribut tersebut, diperoleh:
1. A, sudah dapat diklasifikasikan kasus menjadi 1 keputusan yaitu “Pujian”.
2. B, sudah mengklasifikasikan kasus menjadi 2 keputusan dengan Entropy yang
bernilai 0. Dengan melihat kecenderungan nilai terbesar dari 2 kolom keputusan
tersebut, maka dapat disimpulkan untuk B diklasifikasikan sebagai “Sangat
Memuaskan”.
3. C, sudah dapat diklasifikasikan kasus menjadi 1 keputusan yaitu “Memuaskan”.
4. Untuk nilai atribut D dan E bisa diabaikan/dihilangkan karena tidak berpengaruh.
Sampai disini, adapun pohon keputusan yang terbentuk yaitu sebagai berikut.
Matematika
A B C, D
A B C
Sangat
Pujian Memuaskan
Memuaskan
Tabel 2. Kriteria
Klasifikasi Penilaian
x > 80 A
x ≤ 80 B
2. Entropy Matematika
a. Entropy Baik
4 4 0 0
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑎𝑖𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 ≈ 0
4 4 4 4
Jika salah satu kolom pada baris yang dihitung nilai Entropynya bernilai 0, maka
nilai Entropy dari baris tersebut 0.
b. Entropy Buruk
4 4 7 7
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑢𝑟𝑢𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.945660305
11 11 11 11
dan seterusnya seperti tabel 4 berikut.
1. Gain Matematika
4 11
𝐺𝑎𝑖𝑛(𝑆, 𝑀𝑎𝑡𝑒𝑚𝑎𝑡𝑖𝑘𝑎) = 0.996 − ( ×0+ × 0.945) = 0.303
15 15
2. Gain Fisika
7 8
𝐺𝑎𝑖𝑛(𝑆, 𝐹𝑖𝑠𝑖𝑘𝑎) = 0.996 − ( × 0.591 + × 0.811) = 0.288
15 15
dan seterusnya seperti tabel 5 berikut.
Tabel 5. Information Gain
Baik Buruk Entropy Entropy
Mapel Gain
Tepat Tidak Tepat Tidak Baik Buruk
Matematika 4 0 4 7 0 0.945660305 0.303307409
Fisika 6 1 2 6 0.591672779 0.811278124 0.287996002
Kimia 6 4 2 3 0.970950594 0.970950594 0.025841038
Biologi 7 4 1 3 0.945660305 0.811278124 0.086966575
Dari keempat nilai Information Gain yang didapat, Information Gain (S,
Matematika) adalah yang terbesar sehingga atribut Matematika sebagai root. Semua
sampel Baik termasuk dalam kelas “Tepat Waktu” maka fungsi ini akan berhenti dan
mengembalikan satu simpul tunggal Root dengan label Tepat Waktu seperti gambar
berikut.
Matematika
Baik Buruk
Tepat
Waktu ?
Tabel 6. Data Nilai Raport dengan Nilai Matematika dengan Kategor Buruk
Baik Buruk
Mapel
Tepat Tidak Tepat Tidak
Fisika 2 1 2 6
Kimia 2 4 2 3
Biologi 4 4 0 3
2. Entropy Fisika
a. Entropy Baik
2 2 1 1
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑎𝑖𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.918295834
3 3 3 3
b. Entropy Buruk
2 2 6 6
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆𝑏𝑢𝑟𝑢𝑘 ) = − × 2𝑙𝑜𝑔 − × 2𝑙𝑜𝑔 = 0.811278124
8 8 8 8
dan seterusnya seperti tabel berikut.
Tabel 7. Entropy Baik dan Buruk
Baik Buruk Entropy Entropy
Mapel
Tepat Tidak Tepat Tidak Baik Buruk
Fisika 2 1 2 6 0.918295834 0.811278124
Kimia 2 4 2 3 0.918295834 0.970950594
Biologi 4 4 0 3 1 0
Dari ketiga nilai Information Gain yang didapat, Information Gain (S, Biologi)
adalah yang terbesar sehingga atribut Biologi sebagai sub root. Semua sampel Buruk
termasuk dalam kelas “Tidak Tepat Waktu”, kemudian dilanjutkan ke iterasi berikutnya
dengan Biologi “Baik” sebagai sub Root
Entropy Entropy
Baik Buruk Gain
Mapel Baik Buruk
Tepat Tidak Tepat Tidak
Fisika 2 0 2 4 0 0.918295834 0.311278124
Kimia 2 1 2 3 0.918295834 0.970950594 0.048794941
Dari kedua nilai Information Gain yang didapat, Information Gain (S, Fisika)
adalah yang terbesar sehingga atribut Fisika sebagai sub root. Semua sampel Baik
termasuk dalam kelas “Tepat Waktu”. Sedangkan untuk kasus Fisika “Buruk” 2 sampel
lulus tepat waktu dan 4 sampel lulus tidak tepat waktu. Jadi dapat disimpulkan apabila
nilai fisika buruk maka cenderung tidak tepat waktu. Sehingga didapat pohon keputusan
sebagai berikut.
Matematika
Baik Buruk
Tepat Waktu
Biologi
Baik Buruk
Tidak Tepat
FISIKA
Waktu
Baik Buruk
Tidak Tepat
Tepat Waktu
Waktu
Gambar 2. Pohon Keputusan
7. Algoritma K-Means Clustering
Penerapan algoritma K-Means Clustering untuk pengelompokan siswa pintar, sedang, dan
kurang pada data berikut.
Tabel 1. Data Mahasiswa
No Nama Mahasiswa UTS UAS Tugas
1 Wira 79 67 74
2 Yoga 80 81 67
3 Anom 71 94 74
4 Wijaya 63 63 85
5 Dede 87 88 76
6 Kurnia 70 83 61
7 Dewa 89 83 94
8 Diva 83 69 80
9 Ari 87 71 75
10 Hendra 75 62 64
11 Setiawan 60 70 60
12 Agung 89 88 86
13 Candra 88 89 85
14 Kusuma 70 65 65
15 Arda 65 66 67
𝑑(𝑥, 𝑦) = √∑(𝑥𝑖 − 𝑦𝑖 )2
𝑖=1
Ulangi langkah tersebut hingga tidak terjadi perubahan yang signifikan. Berdasarkan
data tersebut terdapat 3 kelompok siswa. Setelah dikelompokkan siswa yang tergolong pintar,
sedang, dan kurang dikategorikan berdasarkan kecendrungan nilai dalam kelompok tersebut,
yaitu sebagai berikut.
Tabel 7. Hasil Clustering
Nama
No UTS UAS Tugas Kemampuan
Mahasiswa
1 Wira 79 67 74 SEDANG
2 Yoga 80 81 67 SEDANG
3 Anom 71 94 74 SEDANG
4 Wijaya 63 63 85 SEDANG
5 Dede 87 88 76 PINTAR
6 Kurnia 70 83 61 KURANG
7 Dewa 89 83 94 PINTAR
8 Diva 83 69 80 SEDANG
9 Ari 87 71 75 PINTAR
10 Hendra 75 62 64 KURANG
11 Setiawan 60 70 60 KURANG
12 Agung 89 88 86 PINTAR
13 Candra 88 89 85 PINTAR
14 Kusuma 70 65 65 KURANG
15 Arda 65 66 67 KURANG
8. Algoritma Fuzzy C-Means
Pengklasteran dengan metode Fuzzy C-Means akan mengelempokkan siswa-siswa yang
tergolong pintar, sedang, dan kurang berdasarkan nilai UTS, UAS, dan Tugas dari data
berikut.
Tabel 1. Data Mahasiswa
No Nama Mahasiswa UTS UAS Tugas
1 Wira 79 67 74
2 Yoga 80 81 67
3 Anom 71 94 74
4 Wijaya 63 63 85
5 Dede 87 88 76
6 Kurnia 70 83 61
7 Dewa 89 83 94
8 Diva 83 69 80
9 Ari 87 71 75
10 Hendra 75 62 64
11 Setiawan 60 70 60
12 Agung 89 88 86
13 Candra 88 89 85
14 Kusuma 70 65 65
15 Arda 65 66 67
6. Iterasi awal (t ) =1
n
X ij
2
ik
Pusat Cluster pertama dapat dihitung dengan rumus: Vkj i 1
n
2
ik
i 1
[( ) X ij ] / ( i1 )
2 2
i1 77.9503 78.97872 76.95745
Tabel 3. Perhitungan Pusat Cluster Kedua
Derajat
Keanggo- Data yang di
taan pada Cluster (i 2 ) 2 ( i 2 ) 2 X i1 (i 2 ) 2 X i 2 (i 2 ) 2 X i3
Cluster Ke-2
i2 X i1 X i2 X i3
0.4 79 67 74 0.16 12.64 10.72 11.84
0.2 80 81 67 0.04 3.2 3.24 2.68
0.3 71 94 74 0.09 6.39 8.46 6.66
0.4 63 63 85 0.16 10.08 10.08 13.6
0.3 87 88 76 0.09 7.83 7.92 6.84
0.4 70 83 61 0.16 11.2 13.28 9.76
0.3 89 83 94 0.09 8.01 7.47 8.46
0.5 83 69 80 0.25 20.75 17.25 20
0.4 87 71 75 0.16 13.92 11.36 12
0.3 75 62 64 0.09 6.75 5.58 5.76
0.4 60 70 60 0.16 9.6 11.2 9.6
0.2 89 88 86 0.04 3.56 3.52 3.44
0.3 88 89 85 0.09 7.92 8.01 7.65
0.4 70 65 65 0.16 11.2 10.4 10.4
0.3 65 66 67 0.09 5.85 5.94 6.03
1.83 138.9 134.43 134.72
[( ) X ij ] / ( i 2 )
2 2
i2 75.90163934 73.45902 73.61749
[( ) X ij ] / ( i 3 )
2 2
i3 77.98717949 77.45726 72.92735
( X ij Vkj )
k 1 j 1
2
j 1 j 1 j 1 k 1 j 1
0.006522 0.019431 0.008966 0.034918
0.009308 0.008514 0.019329 0.037151
0.003537 0.002242 0.00309 0.008869
0.00184 0.002467 0.001726 0.006033
0.00609 0.002939 0.004955 0.013984
0.002994 0.003508 0.004223 0.010725
0.002333 0.001475 0.001678 0.005485
0.007444 0.009009 0.006818 0.023271
0.006694 0.007626 0.00786 0.02218
0.002151 0.004452 0.003053 0.009656
0.001448 0.002221 0.001831 0.0055
0.003506 0.001865 0.002479 0.00785
0.003758 0.001933 0.002637 0.008327
0.00249 0.005536 0.003548 0.011574
0.002297 0.004581 0.002984 0.009863
1
m w1
( X ij Vkj )
2
( X ij Vkj )
k 1 j 1
2
sehingga diperoleh matriks U baru yaitu sebagai berikut.
0.18676543 0.55646 0.256774
0.2505407 0.229174 0.520285
0.39885314 0.25275 0.348397
0.30499186 0.408894 0.286114
0.43552295 0.210148 0.354329
0.27914038 0.327082 0.393778
0.42525584 0.268881 0.305863
U= 0.31990199 0.387121 0.292977
0.30180139 0.343818 0.354381
0.22277182 0.461056 0.316172
0.26335678 0.403805 0.332838
0.44661231 0.237528 0.31586
0.45127718 0.232072 0.316651
0.21514185 0.478283 0.306576
0.23291064 0.4645 0.302589
Selanjutnya cek kondisi berhenti. Karena P1 P0 1636.01 - 0 1636.01 > 0.1 , dan iterasi
< MaxIter (100), maka lanjutkan perhitungan ke iterasi berikutnya. Iterasi berhenti saat
P1 P0 atau Iterasi sudah mencapai maksimum iterasi yaitu 100. Pada kasus ini proses
berhenti pada iterasi ke 17 dengan P1 P0 0.077654 dan derajat keanggotaan baru sebagai
berikut.
Setelah dikelompokkan siswa yang tergolong pintar, sedang, dan kurang dikategorikan
berdasarkan kecendrungan nilai dalam kelompok tersebut, yaitu sebagai berikut.
1 Wira 79 67 74 SEDANG
2 Yoga 80 81 67 SEDANG
3 Anom 71 94 74 PINTAR
4 Wijaya 63 63 85 KURANG
5 Dede 87 88 76 PINTAR
6 Kurnia 70 83 61 KURANG
7 Dewa 89 83 94 PINTAR
8 Diva 83 69 80 SEDANG
9 Ari 87 71 75 SEDANG
10 Hendra 75 62 64 KURANG
11 Setiawan 60 70 60 KURANG
12 Agung 89 88 86 PINTAR
13 Candra 88 89 85 PINTAR
14 Kusuma 70 65 65 KURANG
15 Arda 65 66 67 KURANG