Anda di halaman 1dari 196

KATA PENGANTAR

Puji dan syukur kehadirat Tuhan Yang Maha Esa atas segala berkat dan
lindunganNya sehingga buku yang berjudul 15 Metode Menyelesaikan Data
Mining, Sistem Pakar dan Sistem Pendukung Keputusan ini dapat saya
selesaikan dengan tuntas setelah melewati masa-masa yang cukup melelahkan
kurang lebih 14 bulan dengan menelusuri beberapa referensi dari jurnal, internet,
buku dan artikel-artikel lainnya.
Buku 15 Metode Menyelesaikan Data Mining, Sistem Pakar dan Sistem
Pendukung Keputusan ini ditujukan khusus untuk mahasiswa dan tidak tertutup
kemungkinan juga para masyarakat awam yang ingin memahami cara
membangun system berbasis artificial intelligence. Karena memang sengaja
disusun lengkap dengan contoh-contoh dan latihan sehingga benar-benar para
pembaca mudah memahami dan mampu mengimplementasikannya.
Kalangan mahasiswa sering terkendala dengan metode-metode yang berhubungan
dengan Data Mining, Sistem Pakar dan Sistem Pendukung Keputusan, dalam
buku ini penulis membahas 15 metode sehingga antar metode dapat
diimplementasikan ke dalam Data Mining, Sistem Pakar dan Sistem Pendukung
Keputusan.
Melalui kata pengantar ini, penulis ingin mengucapkan trimakasih yang sebesarbesarnya kepada Yayasan Teknologi Informasi Mutiara dan STMIK Kaputama
serta seluruh civitas akademika STMIK KAPUTAMA Binjai yang turut serta
membantu dari segi doa dan motivasi hingga selesainya buku ini, dan
persembahan khusus buku ini kepada Triple-R Buaton Junior (Randhy, Richard,
Rachel) dan istri tercinta Dewi Sartika. Akhir kata semoga buku ini bermanfaat
bagi kita semua
Medan 2014

Sistem Pakar

85

Penulis
DAFTAR ISI
Kata Pengantar
Daftar Isi
BAB 1 : Pendahuluan
BAB 2 : DATA MINING
2.1. Pengertian Data Mining
2.2.1.
Data Warehouse
2.2.2.
Proses Data Mining
2.2.3.
Teknik Data Mining
2.2.
Metode Rough Set
2.2.1.
Pengantar Rough Set
2.2.2.
Discernibility Matrix
2.2.3.
Discernibility Matrix Modulo D
2.2.4.
Reduct
2.2.5.
Generating Rules
2.3. Metode Association Rules
2.3.1. Pengantar Association Rules
2.3.2. Terminologi Association Rule
2.3.3. Langkah-Langkah Algoritma PadaAssociation Rule
2.4.Metode Clustering
2.4.1. Pengantar Clustering
2.4.2. Algoritma K-Means
2.5. Artificial Neural Networ(ANN)
2.5.1. Pengantar Jaringan syaraf Tiruan
2.5.2. Perceptron
2.5.3. BACK PROPAGATION(Perambatan Galat Mundur)
2.5.3.1. Pengantar Back Propagation
2.6. Decision Tree(Pohon Keputusan)
2.6.1. Pengantar Decision Tree
2.6.2. AlgoritmaID3
BAB 3 : SISTEM PAKAR
3.1. Sekilar Tentang Artificial Inteligence
3.1.1. Pengertian Sistem Pakar
3.1.2. Konsep Dasar Sistem Pakar
3.1.3. Ciri-Ciri Sistem Pakar
3.1.4. Struktur Sistem Pakar
3.1.5. Keuntungan Sistem Pakar
3.1.6. Representasi pengetahuan
3.1.7. Model Representasi Pengetahuan
3.1.8. Inferensi
3.2. Metode Bayes

Sistem Pakar

86

3.2.1. Prior
3.2.1. Posterior
3.2.3. Penerapan Metode Bayes
3.3. Fuzzy Sistem
3.3.1 Fuzziness dan Probabilitas
3.3.2 Fuzzy Set
3.3.3 Fuzzy logic
3.4. Certainty Factor
3.4.1. Pengertian Faktor Kepastian ( Certainty Factor )
3.4.2. Perhitungan Certainty Factor
BAB 4: SISTEM PENDUKUNG KEPUTUSAN
4.1. Fuzzy Multiple Attribute Decision Making (FMADM)
4.1.1. Sistem Pendukung Keputusan
4.1.2. Ciri-ciri Decision Support System (DSS)
4.1.3. Karakteristik, Kemampuan dan Keterbatasan SPK
4.1.4. Komponen - Komponen Sistem Pendukung Keputusan
4.1.5. Tahapan Proses Pengambilan Keputusan
4.2. Metode Analytical Hierarchy Process (AHP)
4.2.1 Kelebihan AHP
4.2.2 Prinsip - Prinsip Analytical Hierarchy Process
4.2.3 Langkah-Langkah Analytical Hierarchy Process
4.2.4. Contoh Kasus Dengan Metode AHP
4.3.Metode TOPSIS( Technique For Order Preference by Similarity to
4.3.1. Langkah-langkah metode TOPSIS
4.3.2. Contoh Penerapan Metode Topsis
4.4.Metode Weighted Product (WP)
4.4.1. Contoh Kasus Dengan Metode WP
4.5. Metode Simple Additive Weighting (SAW)
4.5.1. Analisis Pemecahan Masalah dengan Metode SAW
4.5.2. Studi Kasus
Daftar Pustaka

Sistem Pakar

87

MOTTO
Jangan Pernah Berhenti Untuk Belajar

Sistem Pakar

88

Tentang Penulis
Relita Buaton, ST, M. Kom, lahir pada tahun 1979
yang selalu mendapat prestasi baik sejak SD, SMP,
SMA hingg jenjang Perguruan Tinggi. Gelar ST diraih
di ISTP(Institut Sains dan Teknologi TD. Pardede) pada
tahun 2004 di Medan, Gelar M. Kom diraih di UPI
(Universitas Putra Indonesia) di Padang tahun 2010.
Berbagai pengalaman dan pekerjaan telah didapat
sebagai EDP Staff, IT Manager di beberapa perusahaan swasta di Kota Medan,
Sejak tahun 2006 mengabdi sebagai dosen di beberapa PTS Medan, dan tahun
2009 sebagai dosen tetap di STMIK Kaputama Binjai sampai saat ini
Penulis

gemar

pada

beberapa

cabang

ilmu

computer

diantaranya,

pemrograman(desktop maupun web base), Artificial Inteligence, Expert System


dan

Data

Mining.

Kontak

dengan

fredy_smart04@yahoo.com

Sistem Pakar

89

penulis

dapat

melalui

BAB I
PENGANTAR

Buku ini terdiri dari 4 bab, yang terdiri dari Data Mining, Sistem Pakar dan
Sistem Pendukung Keputusan, berikut akan dijelaskan gambaran bab demi bab

Bab I pengantar

Bab II tentang data mining mencakup


a. Konsep data mining
b. Metode Rough Set
c. Apriori
d. Clustering
e. Perceptro
f. Back Propagation
g. Decision Tree
Data mining merupakan serangkaian proses untuk menggali nilai tambah dari
suatu kumpulan data berupa pengetahuan yang selama ini tidak diketahui secara
manual dari suatu kumpulan data. Defenisi lain data mining adalah sebagai proses
untuk mendapatkan informasi yang berguna dari gudang basis data yang besar.
Data mining juga diartikan sebagai pengekstrakan informasi baru yang diambil
dari bongkahan data besar yang membantu dalam pengambilan keputusan. Istilah
data mining kadang disebut juga knowledge discovery. Istilah data mining dan
Knowledge Discovery in Database (KDD) sering kali digunakan secara bergantian
untuk menjelaskan proses penggalian informasi tersembunyi dalam suatu basis
data yang besar. Sebenarnya kedua istilah tersebut memiliki konsep yang berbeda,

Sistem Pakar

90

tetapi berkaitan satu sama lain. KDD adalah kegiatan yang meliputi pengumpulan,
pemakaian data, historis untuk menemukan keteraturan, pola atau hubungan
dalam set data yang berukuran besar

Data mining didefinisikan sebagai proses menemukan pola-pola dalam data. Pola
yang ditemukan harus penuh arti dan pola tersebut memberikan keuntungan.
Karakteristik data mining sebagai berikut
1. Data mining berhubungan dengan penemuan sesuatu yang tersembunyi
dan pola data tertentu yang tidak diketahui sebelumnya.
2. Data mining biasa menggunakan data yang sangat besar. Biasanya data
yang besar digunakan untuk membuat hasil lebih dipercaya.
3. Association rule mining adalah teknik mining untuk menemukan aturan
assosiatif antara suatu kombinasi item. Contoh dari aturan assosiatif dari
analisa pembelian di suatu pasar swalayan adalah bisa diketahui berapa
besar kemungkinan seorang pelanggan membeli roti bersamaan dengan
susu. Dengan pengetahuan tersebut, pemilik pasar swalayan dapat
mengatur penempatan barangnya atau merancang kampanye pemasaran
dengan memakai kupon diskon untuk kombinasi barang tertentu. Penting
tidaknya suatu aturan assosiatif dapat diketahui dengan dua parameter,
support yaitu persentase kombinasi item tersebut dalam database dan
confidence yaitu kuatnya hubungan antar item dalam aturan assosiatif.
4. Classification adalah proses untuk menemukan model atau fungsi yang
menjelaskan atau membedakan konsep atau kelas data, dengan tujuan
untuk dapat memperkirakan kelas dari suatu objek yang labelnya tidak
diketahui.
5. Decision tree adalah salah satu metode classification yang paling populer
karena mudah untuk diinterpretasi oleh manusia. Setiap percabangan
menyatakan kondisi yang harus dipenuhi dan tiap ujung pohon
menyatakan kelas data. Algoritma decision tree yang paling terkenal
adalah C4.5, tetapi akhir-akhir ini telah dikembangkan algoritma yang

Sistem Pakar

91

mampu menangani data skala besar yang tidak dapat ditampung di main
memory seperti RainForest.
6. Clustering
Berbeda dengan association rule dan classification dimana kelas data telah
ditentukan sebelumnya, clustering melakukan pengelompokan data tanpa
berdasarkan kelas data tertentu. Bahkan clustering dapat dipakai untuk
memberikan label pada kelas data yang belum diketahui itu. Karena itu
clustering sering digolongkan sebagai metode unsupervised learning.
Prinsip clustering adalah memaksimalkan kesamaan antar anggota satu
kelas dan meminimumkan kesamaan antar kelas/cluster. Clustering dapat
dilakukan pada data yang

memiliki beberapa atribut yang dipetakan

sebagai ruang multidimensi.


7. Neural Network
Merupakan pendekatan perhitungan yang melibatkan pengembangan
struktur secara matematis dengan kemampuan untukbelajar dan mampu
menurunkan pengertian dari data yang kompleks dan tidak jelas dan dapat
digunakan pula untuk mengekstrak pola dan mendeteksi trend-trend yang
sangat kompleks untuk dibicarakan baik oleh manusia maupun teknik
komputer lainnya. Jaringan syaraf buatan yang terlatih dapat dianggap
sebagai pakar dalam kategori informasi yang akan dianalisis. Pakar ini
dapatbdigunakan untuk memproyeksi situasi baru dari ketertarikan
informasi

Dengan memahami bab 2, maka dapat memecahkah masalah yang berhubungan


dengan tumpukan data, sehingga mampu mendapatkan informasi atau
pengetahuan baru sekumpulan atau tumpukan data. Untuk memahami metodemetode yang terdapat dalam data mining, penulis membuat beberapa contoh untuk
memahami perhitungan secara matematis
Kalangan mahasiswa terkadang mengalami kesulitan dalam memilihi metode
untuk penelitian, pada bab 2 penulis juga menjelaskan saat kapan metode terdebut
digunakan sesuai data.

Sistem Pakar

92

Bab III tentang Sistem pakar, mencakup


a. Konsep system pakar
b. Backward Chaining
c. Forward Chaining
d. Metode Fuzzy Logic
e. Certainty factor
f. Metode Bayes

Sistem Pakar ( Expert System ) adalah sistem yang berusaha mengadopsi


pengetahuan manusia ke komputer, agar komputer dapat menyelesaikan masalah
seperti biasa yang dilakukan para ahli Sistem pakar (expert system) mulai
dikembangkan pada pertengahan tahun 1960-an oleh Artificial Intelligence
Corporation. Sistem pakar yang muncul pertama kali adalah General-purpose
Problem Solver (GPS) yang merupakan sebuah predecessor untuk menyusun
langkah-langkah yang dibutuhkan untuk mengubah situasi awal menjadi state
tujuan yang telah ditentukan sebelumnya dengan menggunakan domain masalah
yang kompleks. Sistem pakar dapat diterapkan untuk persoalan di bidang industri,
pertanian, bisni, kedokteran, militer, komunikasi dan transportasi, pariwisata,
pendidikan, dan lain sebagainya. Permasalahan tersebut bersifat cukup kompleks
dan terkadang tidak memiliki algoritma yang jelas di dalam pemecahannya,
sehingga dibutuhkan kemampuan seorang atau beberapa ahli untuk mencari
sistematika penyelesaiannya secara evolutif.

Sistem pakar disusun oleh dua bagian utama, yaitu: lingkungan


pengembangan
(consultation

(development
environment)

environment)
(Muhammad

dan

lingkungan

Arhami,

2005).

konsultasi
Lingkungan

pengembangan sistem pakar digunakan untuk memasukkan pengetahuan pakar


kedalam lingkungan sistem pakar, sedangkan lingkungan konsultasi digunakan
oleh pengguna yang bukan pakar guna memperoleh pengetahuan pakar.

Sistem Pakar

93

Komponen-komponen yang terdapat dalam sistem pakar antara lain adalah


sebagai berikut :
1. Antarmuka pengguna (user interface)
User interface merupakan mekanisme yang digunakan oleh pengguna dan
sistem pakr untuk berkomunikasi. Antarmuka menerima informasi dari
pemakai dan mengubahnya kedalam bentuk yang dapat diterima oleh
sistem. Pada bagian ini terjadi dialog antara program dan pemakai, yang
memungkinkan sistem pakar menerima instruksi dan informasi (input) dari
pemakai, juga memberikan informasi (output) kepada pemakai.
1. Basis Pengetahuan
Basis pengetahuan berisi pengetahuan-pengetahuan dalam penyelesaian
masalah dalam domain tertentu.Ada dua bentuk pendekatan basis
pengetahuan yang sangat umum digunakan, yaitu :
a) Penalaran berbasis aturan (Rule-Based Reasoning)
Pengetahuan direpresentasikan dengan menggunakan aturan berbentuk : IFTHEN. Bentuk ini digunakan apabila memiliki sejumlah pengetahuan pakar
pada suatu permasalahan tertentu, dan pakar dapat menyelesaikan masalah
tersebut secara berurutan.
b) Penalaran berbasis kasus (Case-Based Reasoning)
Basis pengetahuan berisi solusi-solusi yang telah dicapai sebelumnya,
kemudian akan diturunkan suatu solusi untuk keadaan yang terjadi sekarang.
3. Akuisisi Pengetahuan (knowledge acquisition)
Akuisisi pengetahuan adalah akumulasi, transfer, dan transformasi keahlian
dalam menyelesaikan masalah dari sumber pengetahuan kedalam program
komputer. Dalam tahap ini knowledge engineer berusaha menyerap
pengetahuan

untuk

selanjutnya

di

transfer

ke

dalam

basis

pengetahuan.Terdapat empat metode utama dalam akuisisi pengetahuan, yaitu:


wawancara, analisis protocol, observasi pada pekerjaan pakar dan induksi
aturan dari contoh.

Sistem Pakar

94

4. Mesin inferensi
Mesin inferensi merupakan perangkat lunak yang melakukan penalaran dengan
menggunakan pengetahuan yang ada untuk menghasilkan suatu kesimpulan
atau hasil akhir. Dalam komponen ini dilakukan permodelan proses berfikir
manusia.
5. Workplace
Workplace merupakan area dari sekumpulan memori kerja yang digunakan
untuk merekam hasil-hasil dan kesimpulan yang dicapai. Ada tiga tipe
keputusan yang direkam, yaitu :
a) Rencana : Bagaimana menghadapi masalah.
b) Agenda : Aksi-aksi yang potensial yang sedang menunggu untuk eksekusi.
c) Solusi : calon aksi yang akan dibangkitkan.
6. Fasilitas penjelasan
Fasilitas penjelasan adalah komponen tambahan yang akan meningkatkan
kemampuan sistem pakar. Komponen ini menggambarkan penalaran sistem
kepada pemakai dengan cara menjawab pertanyaan-pertanyaan.
7. Perbaikan pengetahuan
Pakar memiliki kemampuan untuk menganalisis dan meningkatkan kinerjanya
serta kemampuan untuk belajar dan kinerjanya
Sistem pakar merupakan program yang dapat menggantikan keberadaan seorang
pakar. Alasan mendasar mengapa sistem pakar dikembangkan menggantikan
seorang pakar adalah sebagai berikut :
1.

Dapat menyediakan kepakaran setiap waktu dan di berbagai lokasi.

2. Secara otomatis mengerjakan tugas-tugas rutin yang membutuhkan


seorang pakar.
3. Seorang pakar akan pensiun atau pergi.
4. Menghadirkan atau menggunkan jasa seorang pakar memerlukan biaya
yang mahal.
5. Kepakaran dibutuhkan juga pada lingkungan yang tidak bersahabat
(hostile environment).

Sistem Pakar

95

Dengan memahami bab 3 yaitu tentang system pakar, para pembaca diharapkan
mampu menerapkan metode-metode tersebut untuk membangun system pakar
maupun memahami perhitungan secara matematis

Bab IV tentang Sistem Pendukung Keputusan, mencakup


a. Konsep system pendukung keputusan
b. MADM
c. AHP
d. SAW
e. WP
f. TOPSIS

Fuzzy Multiple Attribute Decision Making (FMADM) adalah suatu metode yang
digunakan untuk mencari alternatif optimal dari sejumlah alternatif dengan
kriteria tertentu. Inti dari FMADM adalah menentukan nilai bobot untuk setiap
atribut, kemudian dilanjutkan dengan proses perankingan yang akan menyeleksi
alternatif yang sudah diberikan. Pada dasarnya, ada tiga pendekatan untuk
mencari nilai bobot atribut, yaitu pendekatan subyektif, pendekatan obyektif dan
pendekatan integrasi antara subyektif & obyektif. Masing-masing pendekatan
memiliki kelebihan dan kelemahan. Pada pendekatan subyektif, nilai bobot
ditentukan berdasarkan subyektifitas dari para pengambil keputusan, sehingga
beberapa faktor dalam proses perankingan alternatif bisa ditentukan secara bebas.
Sedangkan pada pendekatan obyektif, nilai bobot dihitung secara matematis
sehingga mengabaikan subyektifitas dari pengambil keputusan

Sistem Pendukung Keputusan adalah suatu sistem informasi bebasis komputer


yang menghasilkan berbagai alternatif keputusan untuk membantu manajemen
dalam menangani berbagai permasalahan yang terstruktur ataupun tidak
terstruktur dengan menggunakan data dan model. Kata berbasis komputer
merupakan kata kunci, karena hampir tidak mungkin membangun SPK tanpa

Sistem Pakar

96

memanfaatkan komputer sebagai alat bantu, terutama untuk menyimpan data serta
mengelola model

a. Karakteristik DSS
1. Mendukung seluruh kegiatan organisasi
2. Mendukung beberapa keputusan yang saling berinteraksi
3. Dapat digunakan berulang kali dan bersifat konstan
4. Terdapat dua komponen utama, yaitu data dan model
5. Menggunakan baik data eksternal dan internal
6. Memiliki kemampuan what-if analysis dan goal seeking analysis
7. Menggunakan beberapa model kuantitatif
b. Kemampuan DSS
1. Menunjang pembuatan keputusan manajemen dalam menangani masalah
semi terstruktur dan tidak terstruktur
2. Membantu manajer pada berbagai tingkatan manajemen, mulai dari
manajemen tingkat atas sampai manajemen tingkat bawah
3. Menunjang pembuatan keputusan secara kelompok maupun perorangan
4. Menunjang pembuatan keputusan yang saling bergantung dan berurutan
5. Menunjang tahap-tahap pembuatan keputusan antara lain intelligensi,
desain, choice, dan implementation
6. Menunjang berbagai bentuk proses pembuatan keputusan dan jenis
keputusan
7. Kemampuan untuk melakukan adaptasi setiap saat dan bersifat fleksibel
8. Kemudahan melakukan interaksi system

Sistem Pakar

97

9. Meningkatkan efektivitas dalam pembuatan keputusan daripada efisiensi


10. Mudah dikembangkan oleh pemakai akhi
11. Kemampuan pemodelan dan analisis pembuatan keputusan
12. Kemudahan melakukan pengaksesan berbagai sumber dan format data
Di samping berbagai Karakteristik dan Kemampuan seperti dikemukakan
di atas, SPK juga memiliki beberapa keterbatasan, diantaranya adalah
1. Ada beberapa kemampuan manajemen dan bakat manusia yang tidak dapat
dimodelkan, sehingga model yang ada dalam sistem tidak semuanya
mencerminkan persoalan sebenarnya.
2. Kemampuan suatu SPK terbatas pada pembendaharaan pengetahuan yang
dimilikinya (pengetahuan dasar serta model dasar).
3. Proses-proses yang dapat dilakukan oleh SPK biasanya tergantung juga
pada kemampuan perangkat lunak yang digunakannya.
4. SPK tidak memiliki kemampuan intuisi seperti yang dimiliki oleh
manusia. Karena walau bagaimana pun canggihnya suatu SPK, hanyalah
sautu kumpulan perangkat keras, perangakat lunak dan sistem operasi
yang tidak dilengkapi dengan kemampuan berpikir.

Dengan membaca bab 4 yakni tentang system pendukung keputusan, pembaca


mampu membangun system pendukung keputusan, yan tentu konsepnya berbeda
dengan data mining dan system pendukung keputusan

Buku ini juga disertai dengan beberapa contoh kasus, dimana kasus tersebut
diambil dari pengalaman penulis dalam beberap jurnal yang penulis buat
dan sedang proses penerbitan

Sistem Pakar

98

BAB II
DATA MINING

2.1. Pengertian Data Mining


Sebelum membahas lebih jauh tentang data mining, mari kita simak
terlebih dahulu pengalaman 2 orang mahasiswa pasca sarjana di Curtin University
of Tecnology berikut ini(Yudho, 2003)
Ketika saya mengikuti program orientasi mahasiswa baru pasca sarjana
di Curtin University of Technology, saya berkenalan dengan seorang
mahasiswi asal Australia. Dia mengambil program Master di bidang
Jaringan Komputer dan telah menyandang gelar MCSE (Microsoft
Certified Systems Engineer), lalu dia bertanya pada saya, Apa topik
penelitian Anda?, saya menjawab

Data Mining. Dia kemudian

memberi komentar kepada saya, Oh. itu bagus sekali. Anda tepat
sekali mengambil topik itu disini, karena kita punya pertambangan emas
yang besar sekali di Kalgoorlie (Kalgoorlie berada 600 km di sebelah timur
Perth dan Curtin University mempunyai cabang kampus disana). Data
Mining memang salah satu cabang ilmu komputer yang relatif baru. Dan
sampai sekarang orang masih memperdebatkan untuk menempatkan data
mining di bidang ilmu mana, karena data mining menyangkut database,
kecerdasan buatan (artificial intelligence), statistik, dsb. Ada pihak yang
berpendapat bahwa data mining tidak lebih dari machine learning atau
analisa statistik yang berjalan di atas database. Namun pihak lain
berpendapat bahwa database berperanan penting di data mining karena
data mining mengakses data yang ukurannya besar (bisa sampai terabyte)
dan disini terlihat peran penting database terutama dalam optimisasi querynya. Lalu apakah data mining itu? Apakah memang berhubungan erat

Sistem Pakar

99

dengan dunia pertambangan, tambang emas, tambang timah, dsb. Definisi


sederhana dari data mining adalah ekstraksi informasi atau pola yang
penting atau menarik dari data yang ada di database yang besar. Dalam
jurnal ilmiah, data mining juga dikenal dengan nama Knowledge Discovery
in Databases (KDD)

Kutipan di atas menceritakan 2 orang mahasiswa yang memiliki perbedaan


persfektif dan pemahaman terkait dengan data mining, ketika dia mengatakan
topik penelitiannya tentang data mining, dan temannya beranggapan bahwa data
mining itu berarti penggalian atau penambangan(emas, timah, dll), sehingga dia
mengatakan , oh itu bagus sekali karena kita punya pertambangan emas yang
besar sekali di Kalgoorlie, mungkin kata mining diasumsikan sama dengan
penambangan atau penggalian emas atau timah.
Setiap hari, bulan atau tahun data transaksi di perusahaan, perguruan
tinggi, swalayan atau instansi lainnya terakumulasi dalam jumlah yang besar. Jika
dalam satu hari ada 200 transaksi, maka dalam setahun kurang lebih sekitar
72.000 transaksi. Kemudian berapa transaksi jika data itu diakumulasikan untuk
10 tahun. Pertanyaannya setelah data itu selesai digunakan setiap bulannya,
untuk apa data itu disimpan?
apakah dibuang, atau disimpan begitu saja hingga menjadi gunung data?
Kalau disimpan terus menerus tentu membutuhkan biaya untuk penambahan
kapasitas memori penyimpanan dan biaya perawatan. Solusi terbaik adalah
dengan membuang data, tetapi sebelum data itu dimusnahkan maka data tersebut
digali terlebih dahulu untuk mendapatkan pengetahuan baru, informasi baru yang
sangat berarti dengan menggunakan teknik data mining.
Data mining merupakan serangkaian proses untuk menggali nilai tambah
dari suatu kumpulan data berupa pengetahuan yang selama ini tidak diketahui
secara manual dari suatu kumpulan data. Defenisi lain data mining adalah sebagai
proses untuk mendapatkan informasi yang berguna dari gudang basis data yang
besar. Data mining juga diartikan sebagai pengekstrakan informasi baru yang
diambil dari bongkahan data besar yang membantu dalam pengambilan

Sistem Pakar

100

keputusan. Istilah data mining kadang disebut juga knowledge discovery (Eko
Prasetyo, 2012). Istilah data mining dan Knowledge Discovery in Database
(KDD) sering kali digunakan secara bergantian untuk menjelaskan proses
penggalian informasi tersembunyi dalam suatu basis data yang besar. Sebenarnya
kedua istilah tersebut memiliki konsep yang berbeda, tetapi berkaitan satu sama
lain. KDD adalah kegiatan yang meliputi pengumpulan, pemakaian data, historis
untuk menemukan keteraturan, pola atau hubungan dalam set data yang berukuran
besar (Budi Santoso , 2007a).
Data mining didefinisikan sebagai proses menemukan pola-pola dalam
data. Pola yang ditemukan harus penuh arti dan pola tersebut memberikan
keuntungan. Karakteristik data mining sebagai berikut
8. Data mining berhubungan dengan penemuan sesuatu yang tersembunyi
dan pola data tertentu yang tidak diketahui sebelumnya.
9. Data mining biasa menggunakan data yang sangat besar. Biasanya data
yang besar digunakan untuk membuat hasil lebih dipercaya.
Data mining berguna untuk membuat keputusan yang kritis, terutama
dalam strategi (Davies, 2004), juga dapat digunakan untuk pengambilan
keputusan di masa depan berdasarkan informasi yang diperoleh dari data masa
lalu. Tergantung pada aplikasinya, data bisa berupa data mahasiswa, data pasien,
data nasabah atau penjualan. Banyak kasus dalam kehidupan sehari-hari yang
tanpa disadari bisa diselesaikan dengan data mining, diantaranya adalah
1. Memprediksi harga saham dalam beberapa bulan ke depan berdasarkan
performansi perusahaan dan data-data ekonomi
2. Memprediksi berapa jumlah mahasiswa baru di perguruan tinggi
berdasarkan data pendaftar pada tahun-tahun sebelumnya
3. Memprediksi nilai indeks prestasi mahasiswa berdasarkan nilai IP
setiap semester sebelumnya
4. Produk apa yang akan dibeli pelanggan secara bersamaan jika membeli
produk di swalayan

Sistem Pakar

101

5. Bagaimana mengetahui karakteristik nasabah yang kredit lancar atau


macet dalam suatu perbankan atau finance
6. Mengelompokan customer berdasarkan minat, atau pola kebiasaan
sehingga mempermudah menentukan target pemasaran
7. Dll.
Tentu masih banyak lagi contoh-contoh dalam bidang lain atau kasus
lain yang kaitannnya dengan penggalian data sehingga bisa menghasilkan
pengetahuan baru dan informasi baru menjadi strategi dalam mengembangkan
suatu bidang uasaha.

9.1.1. Data Warehouse


Data warehouse merupakan kumpulan data dari berbagai sumber yang
disimpan dalam suatu gudang data (repository) dalam kapasitas besar dan
digunakan untuk proses pengambilan keputusan (Prabhu, 2007). Data warehouse
menyatukan dan menggabungkan data dalam bentuk multidimensi. Pembangunan
data warehouse meliputi pembersihan data, penyatuan data dan transformasi data
dan dapat dilihat sebagai praproses yang penting untuk digunakan dalam data
mining. Selain itu data warehouse mendukung On-line Analitycal Processing
(OLAP), sebuah kakas yang digunakan untuk menganalisis secara interaktif dari
bentuk multidimensi yang mempunyai data yang rinci. Sehingga dapat
memfasilitasi secara efektif data generalization dan data mining. Banyak metodemetode data mining yang lain seperti asosiasi, klasifikasi, prediksi, dan clustering,
dapat diintegrasikan dengan operasi OLAP untuk meningkatkan proses mining
yang interaktif dari beberapa level dari abstraksi. Oleh karena itu data warehouse
menjadi platform yang penting untuk data analisis dan OLAP untuk dapat
menyediakan platform yang efektif untuk proses data mining.
Menurut William Inmon, karakteristik dari data warehouse adalah sebagai
berikut :
1. Subject oriented.

Sistem Pakar

102

Pada sistem operasional, data disimpan berdasarkan aplikasi. Set data


hanya terdiri dari data yang dibutuhkan oleh fungsi yang terkait dan
aplikasinya. Sedangkan pada data warehouse, data disimpan bukan
berdasarkan aplikasi, melainkan berdasarkan subjeknya. Misalnya untuk
sebuah perusahaan manufaktur subjek bisnis yang penting, yaitu
penjualan, pengangkutan, dan penyimpanan barang.
2. Integrated.
Data yang tersimpan dalam data warehouse terdiri dari berbagai system
operasional. Oleh sebab itu terdapat kemungkinan bahwa terjadi beberapa
perbedaan, yaitu dalam konvensi penamaan, representasi kode, atribut data
dan pengukuran data. Keempat perbedaan tersebut harus disamakan
terlebih dahulu sesuai dengan standar tertentu agar data yang nantinya
tersimpan dalam data warehouse dapat terintegrasi.
3. Time variant.
Pada data warehouse, data yang tersimpan adalah data historis dalam
kurun waktu tertentu, bukan data terkini. Oleh karena itu data yang
tersimpan mengandung keterangan waktu, misalnya tanggal, minggu,
bulan, catur wulan,dan sebagainya. Karakteristik time variant pada data
warehouse memiliki karakteristik sebagai berikut:
a. Melakukan analisa terhadap hal di masa lalu.
b. Mencari hubungan antara informasi dengan keadaan saat ini.
c. Melakukan prediksi hal yang akan datang.
4. Non-volatile.
Data dalam sistem operasional dapat di update sesuai transaksi
bisnis. Setiap kali terjadi transaksi bisnis. Namun dalam data warehouse,
data tidak dapat diubah karena bersifat read only.
Arsitektur data warehouse (gambar 2.1) mencakup proses ETL
(Extraction,Transformation, Loading) untuk memindahkan data dari operational
data source dan sumber data eksternal lainnya ke dalam data warehouse . Data
warehouse dapat dibagi menjadi beberapa data mart, berdasarkan fungsi
bisnisnya (contoh: data mart untuk penjualan, pemasaran, dan keuangan). Data

Sistem Pakar

103

dalam data warehouse dan data mart diatur oleh satu atau lebih server yang
mewakili multidimensional view dari data terhadap berbagai front end tool, seperti
querytools, analysis tools, report writers, dan data mining tools.

Gambar 2.1 Arsitektur Data Warehouse (Prabhu, 2007)

2.1.2. Proses Data Mining


Data mining merupakan rangkaian proses, data mining dapat dibagi
menjadi beberapa tahap yang diilustrasikan di Gambar 2.2. Tahap-tahap tersebut
bersifat interaktif, pemakai terlibat langsung atau dengan perantaraan knowledge
base.

Sistem Pakar

104

Gambar 2.2. Tahapan Data Mining


Karena data mining adalah suatu rangkaian proses, maka data mining
dapat dibagi menjadi beberapa tahap seperti yang diilustrasikan pada gambar 2.2
1. Pembersihan data (membuang data yang tidak konsisten atau noise)
Pembersihan data merupakan proses menghilangkan noise dan data yang
tidak konsisten atau data tidak relevan. Pada umumnya data yang
diperoleh, baik dari database suatu perusahaan maupun hasil eksperimen,
memiliki isian-isian yang tidak sempurna seperti data yang hilang, data
yang tidak valid atau juga hanya sekedar salah ketik
2. Integrasi data (penggabungan data dari beberapa sumber)
Integrasi data merupakan penggabungan data dari berbagai database ke
dalam satu database baru. Tidak jarang data yang diperlukan untuk data
mining tidak hanya berasal dari satu database tetapi juga berasal dari
beberapa database atau file teks. Integrasi data dilakukan pada atributaribut yang mengidentifikasikan entitas-entitas
3. Transformasi data (mengubah data menjadi bentuk lain)
Data diubah atau digabung ke dalam format yang sesuai untuk diproses
dalam data mining. Beberapa metode data mining membutuhkan format
data yang khusus sebelum bisa diaplikasikan. Sebagai contoh beberapa
metode standar seperti analisis asosiasi dan clustering hanya bisa
menerima input data kategorikal. Oleh sebab itu data berupa angka/
numerik perlu dibagi-bagi menjadi beberapa interval. Proses ini sering
disebut transformasi data
4. Aplikasi teknik data mining
Merupakan suatu proses utama saat metode diterapkan untuk menemukan
pengetahuan berharga dan tersembunyi dari data.

Sistem Pakar

105

5. Evaluasi dan Presentasi pengetahuan (dengan teknik visualisasi)


Menyajikan pengetahuan mengenai metode yang digunakan untuk
memperoleh pengetahuan yang diperoleh pengguna. Tahap terakhir dari
proses data mining adalah bagaimana memformulasikan keputusan atau
aksi dari hasil analisis yang didapat. Ada kalanya hal ini harus melibatkan
orang-orang yang tidak memahami data mining. Karenanya presentasi
hasil data mining dalam bentuk pengetahuan yang bisa dipahami semua
orang adalah satu tahapan yang diperlukan dalam proses data mining

2.1.3. Teknik Data Mining


Data mining berkaitan dengan bidang ilmu ilmu lain, seperti database
system, data warehousing, statistik, machine learning, information retrieval, dan
komputasi tingkat tinggi. Selain itu, data mining didukung oleh ilmu lain seperti
neural network, pengenalan pola, spatial data analysis, image database, signal
processing. Pada dasarnya penggalian data dibedakan menjadi dua fungsionalitas,
yaitu
1. Deskripsi
memperoleh pola (correlation, trend,cluster, trajectory, anomaly) untuk
menyimpulkan hubungan di dalam data
2. Prediksi
memprediksikan nilai dari atribut tertentu berdasarkan nilai dari atribut
lainnya. Atribut yang diprediksi dikenal sebagai target atau dependent
variable, sedangkan atribut yang digunakan untuk membuat prediksi
disebut penjelas atau independent variable
Beberapa teknik yang sering terdapat dalam literatur data mining antara
lain yaitu association rule mining, clustering, klasifikasi, neural network dan lainlain.

Sistem Pakar

106

a. Association rule mining adalah teknik mining untuk menemukan aturan


assosiatif antara suatu kombinasi item. Contoh dari aturan assosiatif dari
analisa pembelian di suatu pasar swalayan adalah bisa diketahui berapa
besar kemungkinan seorang pelanggan membeli roti bersamaan dengan
susu. Dengan pengetahuan tersebut, pemilik pasar swalayan dapat
mengatur penempatan barangnya atau merancang kampanye pemasaran
dengan memakai kupon diskon untuk kombinasi barang tertentu. Penting
tidaknya suatu aturan assosiatif dapat diketahui dengan dua parameter,
support yaitu persentase kombinasi item tersebut dalam database dan
confidence yaitu kuatnya hubungan antar item dalam aturan assosiatif.
b. Classification adalah proses untuk menemukan model atau fungsi yang
menjelaskan atau membedakan konsep atau kelas data, dengan tujuan
untuk dapat memperkirakan kelas dari suatu objek yang labelnya tidak
diketahui.
c. Decision tree adalah salah satu metode classification yang paling populer
karena mudah untuk diinterpretasi oleh manusia. Setiap percabangan
menyatakan kondisi yang harus dipenuhi dan tiap ujung pohon
menyatakan kelas data. Algoritma decision tree yang paling terkenal
adalah C4.5, tetapi akhir-akhir ini telah dikembangkan algoritma yang
mampu menangani data skala besar yang tidak dapat ditampung di main
memory seperti RainForest.
d. Clustering
Berbeda dengan association rule dan classification dimana kelas data telah
ditentukan sebelumnya, clustering melakukan pengelompokan data tanpa
berdasarkan kelas data tertentu. Bahkan clustering dapat dipakai untuk
memberikan label pada kelas data yang belum diketahui itu. Karena itu
clustering sering digolongkan sebagai metode unsupervised learning.
Prinsip clustering adalah memaksimalkan kesamaan antar anggota satu
kelas dan meminimumkan kesamaan antar kelas/cluster. Clustering dapat
dilakukan pada data yang

memiliki beberapa atribut yang dipetakan

sebagai ruang multidimensi.

Sistem Pakar

107

e. Neural Network
Merupakan pendekatan perhitungan yang melibatkan pengembangan
struktur secara matematis dengan kemampuan untukbelajar dan mampu
menurunkan pengertian dari data yang kompleks dan tidak jelas dan dapat
digunakan pula untuk mengekstrak pola dan mendeteksi trend-trend yang
sangat kompleks untuk dibicarakan baik oleh manusia maupun teknik
komputer lainnya. Jaringan syaraf buatan yang terlatih dapat dianggap
sebagai pakar dalam kategori informasi yang akan dianalisis. Pakar ini
dapatbdigunakan untuk memproyeksi situasi baru dari ketertarikan
informasi

2.2. Metode Rough Set


2.2.1. Pengantar Rough Set
Teori rough set adalah sebuah teknik matematik yang dikembangkan oleh
Pawlack pada tahun 1980 (Chouchoulas, 1999). Rough Set salah satu teknik data
mining yang digunakan untuk menangani masalah Uncertainty, Imprecision dan
Vagueness dalam aplikasi Artificial Intelligence (AI). Rouh set merupakan teknik
yang efisien untuk Knowledge Discovery in Database (KDD) dalam tahapan
proses dan Data Mining.
Secara umum, teori rough set telah digunakan dalam banyak aplikasi
seperti medicine, pharmacology, business, banking, engineering design, image
processing dan decision analysis.
1.

Representasi Data Dalam Rough Set

Rough set direpresentasikan dalam 2 elemen yakni Information Systems (IS) dan
Decision Systems (DS).
Information Systems (IS) adalah pasangan IS={U,A}, dimana

Sistem Pakar

108

U={e1, e2,, em} dan A={a1, a2, , an} merupakan sekumpulan example
dan attribute kondisi secara berurutan.
Definisi di atas memperlihatkan bahwa sebuah Information Systems terdiri dari
sekumpulan example, seperti {e1, e2, , em} dan attribute kondisi, seperti {a1, a2,
, an}. Sebuah Information Systems yang sederhana diberikan dalam tabel 2.1.

Tabel 2.1. Information Systems


Example

Studies

Education

..

Works

Poor

SMU

..

Poor

Poor

SMU

..

Good

Moderate

Diploma

..

Poor

Moderate

MSc

..

Poor

Poor

Diploma

..

Good

Good

SMU

..

Poor

Moderate

Diploma

..

Poor

..

..

100

Good

MSc

..

Good

Data di atas merupakan kumpulan data 100 orang dengan melihat tingkat
pendapatan berdasarkan kriteria studies, education dan works . Dalam Information
System,

tiap-tiap

baris

merepresentasikan

objek

sedangkan

column

merepresentasikan attribute yang terdiri dari m objek,


U={e1, e2,, em}: Example 1,2,3
A={a1, a2, , an}: Studies, EducationWorks
Dalam banyak aplikasi, sebuah outcome / keputusan dari pengklasifikasian
diketahui yang direpresentasikan dengan sebuah Decision Attribute, C={C 1, C2,
, Cp}. Maka Information Systems (IS) menjadi IS=(U,{A,C}). Decision
Systems (DS) yang sederhana diperlihatkan pada table 2.2.

Sistem Pakar

109

Table 2.2. Sistem Informasi dan Keputusan


Example

Studies

Education

..

Works

Income
(D)

Poor

SMU

..

Poor

None

Poor

SMU

..

Good

Low

Moderate

Diploma

..

Poor

Low

Moderate

MSc

..

Poor

Medium

Poor

Diploma

..

Good

Medium

Good

SMU

..

Poor

Low

Moderate

Diploma

..

Poor

Medium

..

..

100

Good

MSc

..

Good

High

Tabel 2.2. memperlihatkan sebuah Decision Systems yang sederhana,


terdiri dari m objek, seperti E1, E2, , Em, dan n attribute, seperti Studies,
Education, , Works dan Income (D). Dalam tabel ini, n-1 attribute, Studies,
Education, , Works, adalah attribute kondisi, sedangkan Income adalah decision
attribute.
2. Equivalence Class
Equivalence class adalah mengelompokan objek-objek yang sama untuk attribute
A (U, A). Diberikan Decision Systems pada table 2.2, dapat memperoleh
equivalence class (EC1-EC5) seperti digambarkan pada tabel-2.3
Tabel 2.3. Equivalen Class
Class

Studies

Education

Works

Income

Jumlah

EC1

Poor

SMU

Poor

None

50

EC2

Poor

SMU

Good

Low

EC3

Moderate

SMU

Poor

Low

30

EC4

Moderate

Diploma

Poor

Low

10

EC5,1

Good

MSc

Good

Medium

EC5,2

Good

MSc

Good

High

Sistem Pakar

110

Class EC5 adalah sebuah indeterminacy yang memberikan 2 (dua) keputusan yang
berbeda. Situasi ini dapat ditangani dengan teknik data cleaning karena kelas
EC5,2 hanya memiliki 1objek. Kolom yang paling kanan mengindikasikan jumlah
objek yang ada dalam Decision System untuk class yang sama.Contoh dalam table
2.4 disederhanakan kedalam numerical representation untuk mempermudah
pengolahan datanya, dengan transformasi atribut sebagai berikut.
S tu d ie s :
Poor

: 1

M o d e ra te

: 2

G ood

: 3

E d u c a tio n :
SM U

: 2

D ip lo m a

: 3

M Sc

: 5

Tabel 2.4 memperlihatkan numerical representation dari equivalence class dari


table 2.3
Tabel 2.4. Equivalen Class(Transformasi)
Class

Studies

Education

Works

Income

Jumlah

EC1

50

EC2

EC3

30

EC4

10

EC5,1

EC5,2

2.2.4. Discernibility Matrix

Sistem Pakar

111

Diberikan sebuah IS A=(U,A) and B A, discernibility matrix dari A adalah


MB, dimana tiap-tiap entry MB(I,j) tediri dari sekumpulan attribute yang berbeda
antara objek Xi dan Xj. Bandingkan setiap class, bila ada perbedaan pada atribut
class kemudian tuliskan pada table discerdibility matrix, sedangkan jika semua
atribut sama maka tuliskan dengan tanda kali (X). Atribut dimodelkan dengan:
Studies

:A

Education

:B

Works

:C

Contoh: EC1 dengan EC1, semua atribut sama sehingga hasilnya X(Baris 2 kolom
2), EC1 dengan EC2, terdapat perbedaan yaitu atribut works, sehingga pada table
2.5 baris 2 kolom 3 hasilnya C, begitu selanjutnya. Tabel 2.5 memperlihatkan
discerniblity matrix dari table 2.4.

Table 2.5. Discernibility Matrix


EC1

EC2

EC3

EC4

EC5

EC1

AB

ABC

EC2

AC

ABC

AB

EC3

AC

ABC

EC4

AB

ABC

ABC

EC5

ABC

AB

ABC

ABC

2.2.5. Discernibility Matrix Modulo D


Diberikan sebuah DS A=(U,A{d{) dan subset dari attribute B A, discernibility
matrix modulo D dari A, MBd, didefinisikan seperti berikut dimana MB(I,j)

Sistem Pakar

112

adalah sekumpulan attribute yan berbeda antara objek Xi dan Xj dan juga berbeda
attribute keputusan. Berdasarkan table 2.5, bandingkan setiap class berdasarkan
decision/keputusan, jika keputusan(income) sama maka tuliskan tanda kali(X),
jika income berbeda tuliskan perbedaan atributnya berdasarkan table 2.5. Contoh
EC3 dengan EC2 income sama sehingga hasilnya : X (baris 4 kolom 3)
Table 2.6. Discernibility Matrix Modulo D
EC1

EC2

EC3

EC4

EC5

EC1

AB

ABC

EC2

AB

EC3

ABC

EC4

AB

ABC

EC5

ABC

AB

ABC

ABC

2.2.6. Reduct
Reduct adalah penyeleksian attribut minimal (interesting attribute) dari
sekumpulan attribut kondisi dengan menggunakan Prime Implicant

fungsi

Boolean. Kumpulan dari semua Prime Implicant mendeterminasikan sets of


reduct. Discernibility matrix modulo D pada table 2.6 dapat ditulis sebagai
formula CNF seperti diperlihatkan pada table 2.7. Gunakan aljabar Boolean untuk
mencari prime implicant
A+1=1+A=1
AA=A
Class EC1 terdiri dari X,C,A,AB,ABC menjadi C^A^(AvB)^(AvBvC)
=C^A^(AvB)^(AvBvC)
=C^(AA+AB) ^(AvBvC)
=C^(A+AB)^(AvBvC)

Sistem Pakar

113

=C^(A(1+B))^(AvBvC)
=C^A^(AvBvC)
=C^AA+AB+AC
=C^A(1+B)+AC
=C^A+AC
=C^A(1+C)
=C^A=A^C=AC
Class EC2 terdiri dari C,X,X,X,AB menjadi C^(AvB)
=AC+BC
=AC,BC
Class EC3 terdiri dari A,X,X,X,ABC menjadi A^(AvBvC)
=AA+AB+AC
=A(1+B)+AC
=A+AC
=A(1+C)
=A
Class EC4 terdiri dari AB,X,X,X,ABC menjadi (AvB)^(AvBvC)
=AA+AB+AC+AB+BB+BC
=A(1+B)+AC+AB+BB+BC
=A+AC+AB+BB+BC
=A(1+C)+AB+BB+BC

Sistem Pakar

114

=A+AB+BB+BC
=A(1+B)+BB+BC
=A+B(1+C)
=A+B
=A,B
Calss

EC5

terdiri

dari

ABC,AB,ABC,ABC,X

(AvBvC)^(AvB)^(AvBvC)^(AvBvC)
=(AvBvC)^(AvB)^(AvBvC)^(AvBvC)
=AA+AB+AB+BB+AC+BC^(AvBvC)^(AvBvC)
=A(1+B)+AB+BB+AC+BC^(AvBvC)^(AvBvC)
=A+AB+BB+AC+BC^(AvBvC)^(AvBvC)
=A(1+B)+BB+AC+BC^(AvBvC)^(AvBvC)
=A+AC+BB+BC^(AvBvC)^(AvBvC)
=A(1+C)+BB+BC^(AvBvC)^(AvBvC)
=A+B(1+C)^(AvBvC)^(AvBvC)
=A+B^(AvBvC)^(AvBvC)
=B+A^(AvBvC)^(AvBvC)
=B+AA+AB+AC^(AvBvC)
=B+A(1+B)+AC^(AvBvC)
=B+A+AC^(AvBvC)
=B+A(1+C)^(AvBvC)

Sistem Pakar

115

menjadi

=B+A^(AvBvC)
=B+AA+AB+AC
=B+A(1+B)+AC
=B+A+AC
=B+A(1+C)
=B+A=A,B
Tabel 2.7. Reduce
Class

CNF of Function Boolean

Prime Implicant

Reduce

EC1

C^A^(AvB)^(AvBvC)

A^C

{A,C}

EC2

C^(AvB)

C(AvB)

{A,C},{B,C}

EC3

A^(AvBvC)

{A}

EC4

(AvB)^(AvBvC)

AvB

{A},{B}

EC5

(AvBvC)^(AvB)

AvB

{A},{B}

2.2.7. Generating Rules


Setelah mendapatkan reduce, maka dapat ditarik kesimpulan atau
ditentukan rule dengan menyesuaikan reduce setiap equivalen class terhadap table
2.3(Equivalen Class). Contoh untuk EC1 reduce={A,C}. Pada table discerdibility
matrix Studies dimodelkan dengan A, Education

: B dan Works : C, sehingga

rulenya adalah Jika studies=poor dan work=poor maka income=none.


Berikut akan ditarik kesimpulan untuk semua kelas
a. Class EC1 menghasilkan prime implicant {A,C}, Rulenya adalah
1. Jika studies=poor dan work=poor maka income=none
b. Class EC2 menghasilkan prime implicant {AC},{BC}, Rulenya adalah

Sistem Pakar

116

2. Jika studies=poor dan work=good maka income=low


3. Jika education=SMU dan work=good maka income=low
c. Class EC3 menghasilkan prime implicant {A}, Rulenya adalah
4. Jika studies=moderate maka income low
d. Class EC4 menghasilkan prime implicant {A},{B}, Rulenya adalah
5. Jika studies=moderate maka income=low
6. Jika education=Diploma maka income=low
e. Class EC5 menghasilkan prime implicant {A},{B}, Rulenya adalah
7. Jika studies=good maka income=moderate
8. Jika education=MSc maka income=moderate
Dari 8 rule diatas dapat disimpulkan dengan menggunakan logika OR, menjadi
1. Jika studies=poor dan work=poor maka income=none
2. Jika (studies=poor dan work=good) atau(education=SMU dan
work=good) atau studies=moderate ataueducation=Diploma maka
income=low
3. Jika studies=good atau education=MSc maka income=moderate

2.3. Metode Association Rules


2.3.1. Pengantar Association Rules
Analisis asosiasi atau association rule adalah teknik data mining untuk
menemukan aturan assosiatif antara suatu kombinasi item. Aturan asosiasi
merupakan pernyataan implikasi bentuk XY, dimana X dan Y adalah itemset
yang lepas(disjoint)dan memenuhi persyaratan X Y={}(Eko Prasetyo, 2012),
Sistem Pakar

117

Contoh aturan assosiatif dari analisa pembelian di suatu pasar swalayan adalah
dapat diketahuinya berapa besar kemungkinan seorang pelanggan membeli gula
bersamaan dengan susu. Dengan pengetahuan tersebut pemilik pasar swalayan
dapat

mengatur

tata

letak

atau

penempatan

barang

dagangannya(Kantardzic,2003).
Algoritma A Priori termasuk jenis aturan asosiasi pada data mining. Selain
a priori, yang termasuk pada golongan ini adalah metode generalized rule
induction dan algoritma hash based. Aturan yang menyatakan asosiasi antara
beberapa atribut sering disebut affinity analysis atau market basket analysis.
Analisis asosiasi menjadi terkenal karena aplikasinya untuk menganalisa isi
keranjang belanja di pasar swalayan. Analisis asosiasi juga sering disebut dengan
istilah market basket analysis. Analisis asosiasi dikenal juga sebagai salah satu
teknik data mining yang menjadi dasar dari berbagai teknikdata mining lainnya.
Khususnya salah satu tahap dari analisis asosiasi yang disebut analisis pola
frequensi tinggi (frequent pattern mining) menarik perhatian banyak peneliti untuk
menghasilkan algoritma yang efisien (Kantardzic, 2003).
Penting tidaknya suatu aturan assosiatif dapat diketahui dengan dua
parameter, support (nilai penunjang)yaitu persentase kombinasi item tersebut
dalam database dan confidence (nilai kepastian) yaitu kuatnya hubungan antar
item dalam aturan assosiatif.
Nilai support untuk 2 item diperoleh dengan rumus
Support(a b) =

Jumlah transaksi mengandung a dan b


x 100%
Total transaksi

Nilai confidence untuk 2 item diperoleh dengan rumus

Con
idence

= p(b|a) =

Jumlah transaksi mengandung a dan b


x 100%
Total transaksi a

Aturan assosiatif biasanya dinyatakan dalam bentuk :


{gula, kopi}{susu} (support = 60%, confidence = 50%)
Yang artinya : "50% dari transaksi di database yang memuat item gula dan kopi
juga memuat item susu. Sedangkan 60% dari seluruh transaksi yang ada di

Sistem Pakar

118

database memuat ketiga item itu." Dapat juga diartikan : "Seorang konsumen yang
membeli gula dan susu mempunyai kemungkinan 50% untuk juga membeli susu.
Aturan ini cukup signifikan karena mewakili 60% dari catatan transaksi selama
ini."
Analisis asosiasi didefinisikan suatu proses untuk menemukan semua
aturan assosiatif yang memenuhi syarat minimum untuk support (minimum
support) dan syarat minimum untuk confidence (minimumconfidence).

2.3.2. Terminologi Association Rule


1. I adalah himpunan yang tengah dibicarakan.
Contoh:{Gula,Kopi,Susu, ,Mentega}
2. D adalah Himpunan seluruh transaksi yang tengah dibicarakan
Contoh:{Transaksi 1, transaksi 2, , transaksi n}
3. Proper Subset adalah Himpunan Bagian murni
Contoh:
-

Ada suatu himpunan A={a,b,c,}

Himpunan Kosong = {}

Himpunan 1 Unsur = {a},{b},{c}

Himpunan 2 Unsur = {a,b},{a,c},{b,c}

Himpunan 3 Unsur = {a,b,c,}

Proper subset nya adalah Himpunan 1 Unsur dan Himpunan 2 Unsur


4. Item set adalah Himpunan item atau item-item pada I
Contoh:
Ada suatu himpunan A={a,b,c,}
Item set nya adalah{a};{b}:{c};{a,b};{a,c};{b,c}
5. K- item set adalah Item set yang terdiri dari K buah item yang ada pada I atau K
adalah jumlah unsur yang terdapat pada suatu Himpunan
Contoh:3-item set adalah yang bersifat 3 unsur
6. Item set Frekuensi adalah Jumlah transaksi di I yang mengandung jumlah item
set tertentu. Intinya jumlah transaksi yang membeli suatu item set.
Contoh:

Sistem Pakar

119

- frekuensi Item set yang sekaligus membeli susu dan roti adalah 3
- frekuensi item set yang membeli sekaligus membeli roti,susu dan kopi
adalah 2
7. Frekuen Item Set adalah item set yang muncul sekurang-kurangnya sekian kali
di D. Kata sekian biasanya di simbolkan dengan . merupakan batas
minimum dalam suatu transaksi
8. Fk adalah Himpunan semua frekuen Item Set yang terdiri dari K item.
2.3.3. Langkah-Langkah Algoritma PadaAssociation Rule
1. Tentukan
2. Tentukan semua Frekuen Item set
3. Untuk setiap Frekuen Item set lakukan hal sbb:
1.

Ambil sebuah unsur, namakanlah s

2.

Untuk sisanya namakanlah ss-s

3.

Masukkan unsur-unsur yang telah di umpamakan ke dalam rule If

(ss-s) then s
Untuk langkah ke 3 lakukan untuk semua unsur.
Contoh:
Data Penjualan
Transaksi

Item

Gula,Susu,Kopi

Roti,Susu,Mentega

Gula,Roti,Susu,Mentega

Roti,Mentega

Langkah 1: Pisahkan semua item


Gula,Kopi,Susu,Roti, Mentega
Langkah 2: Lakukan Transformasi
Misalkan A:Gula, B:Roti, C:Susu, D:Kopi, E:Mentega, sehingga table data
penjualan menjadi sbb
Transaksi
1

Sistem Pakar

Item
A,C,D

120

B,C,E

A,B,C,E

B,E

Langkah 3: Buat dalam matrix untuk menentukan jumlah item muncul dalam
database
Transaksi

Jumlah

Langkah 4: Tentukan frekuen item set(), misalkan =2 atau 50%


Sesuai dengan frekuen item set yang telah ditentukan, maka item yang memenuhi
adalah A,B,C,E, sedangkan D tidak termasuk karena hanya 1 kali muncul dalam
database.
Langkah 5: Tentukan item set
a. 2 item set, merupakan kombinasi dari item yang memenuhi frekuen
item set yaitu AB,AC,AE,BC,BE,CE
b. Lakukan pengujian untuk calon 2 item set untuk mengetahui 2 item set
yang memenuhi syarat sesuai frekuen item set yang telah ditentukan
sebelumnya
Item set AB
Transaksi

Hasil

Total

Item set AC
Transaksi

Sistem Pakar

121

Hasil

Total

Item set AE
Transaksi

Hasil

Total

Item set BC
Transaksi

Hasil

Total

Item set BE
Transaksi

Hasil

Total

Item set CE

Sistem Pakar

Transaksi

Hasil

122

Total

Dari ke 6 calon 2 item set yang memenuhi syarat sesuai dengan


frekuen item yaitu minimal 2 adalah AC,BC,BE,CE
c. Tentukan 3 item set(bila diperlukan)
Untuk menentukan calon 3 item set, merupakan kombinasi dari 2 item
set yaitu dengan 2 item yang bersamaan, maka calon 3 item set adalah
AC dengan BC: ABC
AC dengan EC: AEC
BC dengan EC: BCE
d. Lakukan pengujian untuk calon 3 item set untuk mengetahui 3 item set
yang memenuhi syarat sesuai frekuen item set yang telah ditentukan
sebelumnya
Item set ABC
Transaksi

Hasil

Total

Item set AEC


Transaksi

Hasil

Total

Item set BCE


Transaksi

Sistem Pakar

123

Hasil

Total

Dari ke 3 calon 3 item set yang memenuhi syarat sesuai dengan


frekuen item yaitu minimal 2 adalah BCE
Langkah 6: Membuat rule
Rule yang dipakai adalah if x then y, dimana x adalah antecendent dan y adalah
consequent. Berdasarkanrule tersebut, maka dibutuhkan 2 buah item yang mana
salah satunya sebagai antecedent dan sisanya sebagai consequent. Untuk
antecedent boleh lebih dari 1 unsur, sedangkan untuk consequent terdiri dari
1unsur.
a. Rule 2 item set (AC,BC,BE,CE)
1. If buy A then buy C
2. If buy C then buy A
3. If buy B then buy C
4. If buy C then buy B
5. If buy B then buy E
6. If buy E then buy B
7. If buy C then buy E
8. If buy E then buy C
b. Rule 2 item set (BCE)
1. If buy B and C then buy E
2. If buy B and E then buy C
3. If buy C and E then Buy B

Langkah 7: hitung support dan confidence


c. Kandidat association rule 2 item set
Rule

Sistem Pakar

Support

124

Confidence

1. If buy A then buy C

2/4x100%=50%

2/2x100%=100%
2. If buy C then buy A

2/4x100%=50%

2/3x100%=75%
3. If buy B then buy C

2/4x100%=50%

2/3x100%=75%
4. If buy C then buy B

2/4x100%=50%

2/3x100%=75%
5. If buy B then buy E

3/4x100%=75%

3/3x100%=100%
6. If buy E then buy B

3/4x100%=75%

3/3x100%=100%
7. If buy C then buy E

2/4x100%=50%

2/3x100%=75%
8. If buy E then buy C

2/4x100%=50%

2/3x100%=75%
d. Kandidat association rule 3 item set
Rule

Support

1. If buy B and C then buy E

Confidence

2/4x100%=50%

2/2x100%=100%
2. If buy B and E then buy C

2/4x100%=50%

2/3x100%=68%
3. If buy C and E then Buy B

2/4x100%=50%

2/2x100%=100%
Langkah 8: Lakukan perkalian support dan confidence, nilai paling tinggi itulah
rule of the best sebagai rule association
e. Untuk 2 item set, nilai paling tinggi adalah
Rule
1.

If buy B then buy E

Support
3/4x100%=75%

3/3x100%=100%

Sistem Pakar

125

Confidence

2.

If buy E then buy B

3/4x100%=75%

3/3x100%=100%
Jika membeli roti maka membeli mentega
Jika membeli mentega maka memebeli roti
f. Kandidat association rule 3 item set
Rule

Support

4. If buy B and C then buy E

Confidence

2/4x100%=50%

2/2x100%=100%
5. If buy C and E then Buy B

2/4x100%=50%

2/2x100%=100%

2.4.Metode Clustering
2.4.1. Pengantar Clustering
Kesamaan adalah dasar untuk mendefinisikan cluster , ukuran kesamaan
antara dua pola yang diambil dari ruang fitur yang sama sangat penting di dalam
algoritma clustering. Penentuan kesamaan sangat hati-hati karena kualitas proses
pengelompokan tergantung pada keputusan ini(Kantardzic,2003).
Custering

menganalisis

objek

data

yang digunakan untuk menghasilkan grup, grup tersebut didapatkan berdasarkan


prinsip memaksimalkan kesamaan dalam kelas dan meminimalkan kesamaan
antar kelas, artinya bahwa kelompok terbentuk sehingga objek dalam cluster
memiliki kemiripan yang tinggi dibandingkan dengan yang lain, tetapi sangat
berbeda dengan objek dalam cluster lain(Jiawei,2000).
Salah satu metode yang diterapkan dalam KDD adalah clustering.
Clustering adalah membagi data ke dalam grupgrup yang mempunyai obyek
dengan karakteristiknya sama. Clustering memegang peranan penting dalam
aplikasi data mining,misalnya eksplorasi data ilmu pengetahuan, pengaksesan
informasi dan textmining, aplikasi basis data spasial, dan analisis web. Clustering
diterapkan dalam mesin pencari di Internet. Web mesin pencari akan mencari

Sistem Pakar

126

ratusan dokumen yang cocok dengan kata kunci yang dimasukkan. Dokumen
dokumen tersebut dikelompokkan dalam clustercluster sesuai dengan kata-kata
yang digunakan(Sri Andayani, 2007). Pada dasarnya metode pengelompokan ada
2 yakni Hierarchical clustering method dan Non Hierarchical clustering method.
Metode Hirarki digunakan jika jumlah kelompok tidak diketahui sebelumnya,
sedangkan non hirarki digunakan jika jumlah kelompok sudah diketahui dari
sejumlah objek. Salah satu algoritma yang termasuk dalam non hirarki adalah
algoritma K-Means.
Metode Hirarki memulai pengelompokan dengan dua atau lebih obyek
yang mempunyai kesamaan paling dekat. Kemudian diteruskan pada obyek yang
lain dan seterusnya hingga cluster akan membentuk semacam pohon dimana
terdapat tingkatan (hirarki) yang jelas antar obyek, dari yang paling mirip hingga
yang paling tidak mirip. Non Hirarki dimulai dengan menentukan terlebih dahulu
jumlah cluster yang diinginkan (dua,tiga, atau yang lain). Setelah jumlah cluster
ditentukan, maka proses cluster dilakukan dengan tanpa mengikuti proses hirarki

2.4.3. Algoritma K-Means


Algoritma KMeans adalah algoritma clustering yang popular dan banyak
digunakan dalam dunia industri. Algoritma ini disusun atas dasar ide yang
sederhana. Pada awalnya ditentukan berapa cluster yang akan dibentuk. Sebarang
obyek atau elemen pertama dalam cluster dapat dipilih untuk dijadikan sebagai
titik tengah (centroid point) cluster. Algoritma KMeans selanjutnya akan
melakukan pengulangan langkahlangkah berikut sampai terjadi kestabilan (tidak
ada obyek yang dapat dipindahkan).
Konsep kesamaan adalah hal yang fundamental dalam analisis cluster.
Kesamaan antar objek merupakan ukuran korespondensi antar objek. Ada tiga
metode yang dapat diterapkan, yaitu ukuran korelasi, ukuran jarak, dan ukuran
asosiasi. Dengan menggunakan ukuran jarak, ukuran kemiripan yang dapat
digunakan adalah jarak dEeculidean dan dManhattan City. Jika objek pertama
yang diamati adalah X=[X1,X2..Xp] dan Y=[Y1,Y2Yp] antara 2 objek dari p
dimensi maka

Sistem Pakar

127

dEculidean: ,

dManhattan: ,

Adapun pun langkah-langkahnya dengan menggunakan algoritma K-Means


sebagai berikut
1.

Tentukan jumlah cluster

2.

Menentukan centroid(koordinat titik tengah setiap cluster), untuk iterasi


pertama diambil secara random

3.

Menghitung jarak obyek ke centroid dengan menggunakan rumus


jarakEuclidean atau Manhattan.

4.

Menentukan jarak setiap obyek terhadap koordinat titik tengah,

5.

mengelompokkan obyekobyek tersebut berdasarkan pada jarak


terdekat

Berikut ditampilkan diagram alir dari algoritma KMeans.

Sistem Pakar

128

Gambar 2.4. Algoritma K-Means


Contoh:
Mahasiswa

IPK

Alamat

Paijo

3,5

Siantar

Sarinem

2,9

Berastagi

Karsono

1,0

Tj. Morawa

Tukiman

1,8

Medan

ITERASI:I

Sistem Pakar

129

Langkah 1: lakukan transformasi, karena data harus dalam bentuk numeric sesuai
dengan rumus kedekatan yang digunakan Distance Euqlidean

IPK

Mahasiswa

ALAMAT

IPK

Alamat

Paijo

Sarinem

Karsono

Tukiman

Langkah 2: tentukan grup(misalkan k=2)


Langkah 3: Tentukan centroid, misalkan (C1:5,4|C2:4,3)
Langkah 4: hitung objek terhadap centroid
P(1,1)= (5 5) + (4 4) =0

P(1,1)= (5 4) + (4 3) =1,4
S(1,1)= (4 5) + (3 4) =1,4
S(1,1)= (4 4) + (3 3) =0

K(1,1)= (1 5) + (1 4) =5

Sistem Pakar

130

K(1,1)= (1 4) + (1 3) =3,6
T(1,1)= (2 5) + (1 4) =4,2
T(1,1)= (2 4) + (1 3) =2,8

Langkah 5: grupkan berdasarkan jarak terdekat


Objek

IPK

Alamat

Jarak C1

Jarak C2

Grup

Paijo

1,4

Sarinem

1,4

Karsono

3,6

Tukiman

4,2

2,8

Grup baru : 1 2 2 2, iterasi pertama dianggap berpindah grup sehingga dilanjutkan


ke iterasi ke 2, iterasi pertama belum ada grup karena centroid diambil secara acak
ITERASI II
Langkah 1 dan 2 sama dengan itetarsi ke 2
Langkah 3: Tentukan centroid
Centroid I: 5|4
Centroid

II:

Tukiman=(

diambil
)

)=2,3|=(

dari

grup

)=1,6

Langkah 4: hitung objek terhadap centroid


P(1,1)= (5 5) + (4 4) =0

P(1,1)= (5 2,3) + (4 1,6) =3,6


S(1,1)= (4 5) + (3 4) =1,4

Sistem Pakar

131

yaitu

Sarinem,

Karsono

dan

S(1,1)= (4 2,3) + (3 1,6) =2,2


K(1,1)= (1 5) + (1 4) =5

K(1,1)= (1 2,3) + (1 1,6) =1,4


T(1,1)= (2 5) + (1 4) =4,2

T(1,1)= (2 2,3) + (1 1,6) =0,6

Langkah 5: grupkan berdasarkan jarak terdekat


Objek

IPK

Alamat

Jarak C1

Jarak C2

Grup

Paijo

3,6

Sarinem

1,4

2,2

Karsono

1,4

Tukiman

4,2

0,6

Grup lama : 1 2 2 2 dan Grup baru : 1 1 2 2, terjadi perpindahan grup maka


dilanjutkan iterasi berikutnya yaitu iterasi ke 3
ITERASI III
Langkah 1 dan 2 sama dengan itetarsi ke 3
Langkah 3: Tentukan centroid
Centroid I: diambil dari grup 1 yaitu Paijo dan Sarinem=(

)=4,5|=(

Centroid II: diambil dari grup 2 yaitu Karsono dan Tukiman=(


Langkah 4: hitung objek terhadap centroid
P(1,1)= (5 4,5) + (4 3,5) =0,7
P(1,1)= (5 1,5) + (4 1) =4,6
Sistem Pakar

132

)=3,5

)=1,5|=(

)=1

SP(1,1)= (4 4,5) + (3 3,5) =0,7


S(1,1)= (4 1,5) + (3 1) =3,2

KP(1,1)= (1 4,5) + (1 3,5) =4,3


K(1,1)= (1 1,5) + (1 1) =0,5

T(1,1)= (2 4,5) + (1 3,5) =3,5


T(1,1)= (2 1,5) + (1 1) =0,5

Langkah 5: grupkan berdasarkan jarak terdekat


Objek

IPK

Alamat

Jarak C1

Jarak C2

Grup

Paijo

0,7

4,6

Sarinem

0,7

3,2

Karsono

4,3

0,5

Tukiman

3,5

0,5

Grup lama : 1 1 2 2 dan Grup baru : 1 1 2 2, tidak terjadi perpindahan grup maka
stop dengan
Centroid I: diambil dari grup 1 yaitu Paijo dan Sarinem=(

)=4,5|=(

Centroid II: diambil dari grup 2 yaitu Karsono dan Tukiman=(


Secara grafik dapat digambarkan sebagai berikut

Sistem Pakar

133

)=3,5

)=1,5|=(

)=1

4,5
4

Alamat

3,5

Grup 1

3
2,5
2
1,5
1

Grup 2

0,5
0
0

IPK

Gambar 2.5. Hasil Clustering


Dari gfarik di atas dapat ditarik kesimpulan
Goup 1: IPK tinggi dan alamat jauh dari kampus
Group 2: IPK rendah dan alamat dekat dengan kampus
Sehingga disimpulkan mahasiswa yang rumahnya jauh dengan kampus akan
memperoleh IPK tinggi

2.5. Artificial Neural Networ(ANN)


2.5.1. Pengantar Jaringan syaraf Tiruan
Jaringan saraf tiruan (Artificial Nueral Network) atau disingkat JST adalah
sistem komputasi dimana arsitektur dan operasi diilhami dari pengetahuan tentang
sel saraf biologis di dalam otak manusia, yang merupakan salah satu representasi

Sistem Pakar

134

buatan dari otak manusia yang selalu mencoba menstimulasi proses pembelajaran
pada otak manusia tersebut. Model saraf ditunjukkan dengan kemampuannya
dalam emulasi, analisis, prediksi dan asosiasi. Kemampuan yang dimiliki JST
dapat digunakan untuk belajar dan menghasilkan aturan atau operasi dari beberapa
contoh atau input yang dimasukkan dan membuat prediksi tentang kemungkinan
output yang akan muncul atau menyimpan karaktristik dari input yang disimpan
kepadanya.
Valluru B.Rao dan Hayagriva V.Rao (1993) mendefenisi jaringan saraf
sebagai sebuah kelompok pengolahan elemen dalam suatu kelompok yang khusus
membuat perhitungan sendiri dan memberikan hasilnya kepada kelompok kedua
atau berikutnya. Setiap sub kelompok menurut gilirannya harus membuat
perhitungan sendiri dan memberikan hasilnya untuk subgrup atau kelompok yang
belum melakukan perhitungan. Pada akhirnya sebuah kelompok dari satu atau
beberapa pengolahan elemen tersebut menghasilkan keluaran (output) dari
jaringan.
Setiap pengolahan elemen membuat perhitungan berdasarkan pada jumlah
masukan (input). Sebuah kelompok pengolahan elemen disebut layer atau lapisan
dalam jaringan. Lapisan pertama adalah input dan yang terakhir adalah output.
Lapisan di antara lapisan input dan output disebut dengan lapisan tersembunyi
(hidden layer). Jaringan saraf tiruan merupakan suatu bentuk arsitektur yang
terdistribusi paralel dengan sejumlah besar node dan hubungan antar node
tersebut. Tiap titik hubungan dari satu node ke node yang lain mempunyai harga
yang diasosiasikan dengan bobot. Setiap node memiliki suatu nilai yang
diasosiasikan sebagai nilai aktivasi node.
Salah satu organisasi yang dikenal dan sering digunakan dalam paradigma
jaringan saraf

buatan adalah perambatan Galat Mundur (back-propagation).

Sebelum dikenal adanya jaringan saraf perambatan Galat Mundur pada tahun
1950-1960-an,dikenal dua paradigma penting yang nantinya akan menjadi dasar
dari saraf Perambatan Galat Mundur, yakni perceptron dan Adaline/Madaline

Sistem Pakar

135

(adaptive linier neuron/multilayer adaline). Dalam buku ini akan dibahas


Perceptron dan Back Propagation( Arif Hermawan, 2006).

2.5.2. Perceptron
Arsitektur pembelajaran perceptron yakni dengan mengenali pola dengan
metode belajar terbimbing. Pola yang diklasifikasikan biasanya berupa bilangan
biner (kombinasi 1 dan 0) dan kategori pengklasifikasian juga di wujudkan dalam
bilangan biner. Perceptron dibatasi untuk dua lapisan pengolah dengan satu
lapisan bobot yang dapat beradabtasi.
Inputs
x1
w1

Linear
Combiner

Hard
Limiter

Output
Y

w2

x2

Threshold

Gambar 2.6. Arsitektur Perceptron


Elemen pada Gambar

2.6 adalah unit pengolah dasar dari perceptron. Unit

pengolah ini mendapat masukan dari unit pengolah lain yang masing-masing
dihubungkan melalui bobot interkoneksi Wi. Unit pengolah melakukan
penjumlahan berbobot untuk masukannya, dengan rumus berikut ini.
n

X xi wi
i 1

Dengan:
Wi=bobot sambungan dari unit input ke output
Xi=masukan yang berasal dari unit input

Sistem Pakar

136

Sebuah nilai prasikap(fungsi aktivasi) diberikan sebagai tambahan masukan


kepada unit pengolah. Nilai fungsi aktivasi ini pada umumnya menggunakan
FA(Fungsi Aktivasi)Ystep yaitu 1 atau 0, dan dihubungkan dengan unit pegolah
output melalui pembobot yang nilainya selalu beradaptasi selama jaringan
mengalami pelatihan.
Fungsi Aktivasi YStep

1, if X
Y
1, if X

Gambar 2.7. Jenis-Jenis Fungsi Aktivasi


Perceptron dilatih dengan menggunakan sekumpulan pola yang diberikan
kepadanya secara berulang-ulang selama latihan. Setiap pola yang diberikan
merupakan pasangan pola masukan dan pola yang diinginkan. Perceptron
melakukan

penjumlahan

berbobot

menggunakan fungsi ambang

terhadap

tiap-tiap

masukannya

untuk menghitung keluaraannya. Keluaran ini

kemudian dibandingkan dengan hasil yang diinginkan dengan rumus

e( p) Yd ( p) Y ( p)
Dimana

Sistem Pakar

dan

137

E=eror
Yd=output destination(diharapkan)
Yp=output actual
Perbedaan yang dihasilkan dari perbandingan ini digunakan untuk merubah bobotbobot yang ada dalam jaringan. Demikian dilakukan berulang-ulang sehingga
dihasilkan keluaran yang sesuai dengan hasil yang diinginkan.
Langkah-langkah Penyelesaian Perceptron
1. Inisiali
Tentukan input, bobot awal, output yang diharapkan, threshold dan
training rate
2. Hitung keluaran(output actual) dengan rumus

Y ( p ) step xi ( p ) wi ( p )
i 1

Gunakan fungsi aktivasi Y step untuk menentukan output actual

1, if X 0
Y
0, if X 0
3. Hitung eror dengan menggunakan rumus

e( p) Yd ( p) Y ( p)
4. Update bobot dengan menggunakan rumus

wi ( p 1) wi ( p) wi ( p)
wi ( p) xi ( p) e( p)
5. Lakukan iterasi
Contoh Penerapan
Input

Output yg

Bobot awal

diharapkan
X1

X2

Sistem Pakar

Yd

Output Error

Bobot akhir

actual
W1

W2

138

Ya

W1

W2

0,3

-0,1

Threshold: = 0.2; learning rate: = 0.1

Dengan arsitektur 2-1(2 input dan 1 output)


Inputs
x1
w1

Linear
Combiner

Hard
Limiter

w2

x2

Threshold
Epoch I
Iterasi 1
1. Hitung output actual

Y ( p ) step xi ( p ) wi ( p )
i 1

Y (1) step (0 x0,3) (0 x 0,1) 0,2


i 1

Y (1) step 0,2


Y (1) 0

2. Hitung error

e( p) Yd ( p) Y ( p)
e(1) 0 0 0

3. Update bobot

Sistem Pakar

Output

139

a. Bobot w1

wi ( p 1) wi ( p) wi ( p)
wi (1,1) 0,3 0 0,3
wi ( p) xi ( p) e( p)
wi (1,1) 0,1x0 x0 0
b. Bobot w2

wi ( p 1) wi ( p) wi ( p)
wi (1,2) 0,1 0 0,1
wi ( p) xi ( p) e( p)
wi (1,2) 0,1x0 x0 0
Hasil iterasi 1 sebagai berikut:
Input

Output yg

Bobot awal

diharapkan

Output

Error

Bobot akhir

actual

X1

X2

Yd

W1

W2

Ya

W1

W2

0,3

-0,1

0,3

-0,1

0,3

-0,1

Iterasi 2
1. Hitung output actual

Y (2) step (0 x0,3) (1x 0,1) 0,2


i 1

Y (2) step 0,3


Y ( 2) 0

2. Hitung error
e ( 2) 0 0 0

3. Update bobot

Sistem Pakar

140

c. Bobot w1

wi (2,1) 0,3 0 0,3


wi ( p) xi ( p) e( p)
wi (2,1) 0,1x0 x0 0
d. Bobot w2

wi (2,2) 0,1 0 0,1


wi (2,2) 0,1x1x0 0
Hasil iterasi 2 sebagai berikut:
Input

Output yg

Bobot awal

diharapkan

Output

Error

Bobot akhir

actual

X1

X2

Yd

W1

W2

Ya

W1

W2

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

Iterasi 3
1. Hitung output actual

Y (3) step (1x0,3) (0 x 0,1) 0,2


i 1

Y (3) step0,1
Y (3) 1

2. Hitung error
e(3) 1 0 1

3. Update bobot
e. Bobot w1

wi (3,1) 0,3 0,1 0,2


wi (3,1) 0,1x1x 1 0,1
f. Bobot w2

Sistem Pakar

141

wi (3,2) 0,1 0 0,1


wi (3,2) 0,1x0 x 1 0
Hasil iterasi 3 sebagai berikut:
Input

Output yg

Bobot awal

diharapkan

Output

Error

Bobot akhir

actual

X1

X2

Yd

W1

W2

Ya

W1

W2

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

-1

0,2

-0,1

0,2

-0,1

Output

Error

Iterasi 4
4. Hitung output actual

Y (4) step (1x0,2) (1x 0,1) 0,2


i 1

Y (4) step 0,1


Y ( 4) 0

5. Hitung error
e ( 4) 1 0 1

6. Update bobot
g. Bobot w1

wi (4,1) 0,2 0,1 0,3


wi (4,1) 0,1x1x1 0,1
h. Bobot w2

wi (3,2) 0,1 0,1 0


wi (4,2) 0,1x1x1 0,1
Hasil iterasi 4 sebagai berikut:
Input

Sistem Pakar

Output yg

Bobot awal

142

Bobot akhir

diharapkan

actual

X1

X2

Yd

W1

W2

Ya

W1

W2

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

-1

0,2

-0,1

0,2

-0,1

0,3

Untuk epoch I hingga iterasi ke-4 error belum nol(0), masih terdapat error -1 dan
1 untuk iterasi ke 3 dan 4, maka harus dilanjutkan untuk epoch selanjutnya untuk
mencapai error 0 untuk semua input. Jika dilanjutkan ke epoch berikutnya maka
hasilnya sebagai berikut

Epoch

II

III

IV

Input

Output yg

Bobot

Output

diharapkan

awal

actual

Error

Bobot
akhir

X1

X2

Yd

W1

W2

Ya

W1

W2

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

0,3

-0,1

-1

0,2

-0,1

0,2

-0,1

0,3

0,3

0,3

0,3

0,3

0,3

-1

0,2

0,2

0,2

0,2

0,2

0,2

0,2

0,2

-1

0,1

0,1

0,2

0,1

0,2

0,1

0,2

0,1

0,2

0,1

0,2

0,1

0,2

0,1

-1

0,1

0,1

Sistem Pakar

143

IV

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

0,1

Error 0 dicapai pada poch ke-5, dikatakan cerdas dan dapat digunakan untuk
memprediksi.

2.5.3. BACK PROPAGATION(Perambatan Galat Mundur)


2.5.3.1. Pengantar Back Propagation
Jaringan perambatan galat mundur (backpropagation) adalah salah satu
algoritma yang sering digunakan dalam menyelesaikan masalah-masalah yang
rumit. Hal ini dimungkinkan karena pelatihan dengan menggunakan metode
belajar terbimbing. Pada jaringan back propagation diberikan sepasang pola yang
terdiri atas pola masukan dan pola yang diinginkan. Ketika suatu pola diberikan
kepada jaringan, maka bobot-bobot diubah untuk memperkecil perbedaan pola
keluaran dan pola yang diinginkan. Latihan ini dilakukan berulang-ulang sehingga
semua pola yang dikeluarkan jaringan dapat memenuhi pola yang diinginkan.

Sistem Pakar

144

Algoritma pelatihan jaringan saraf perambatan galat mundur terdiri atas


dua langkah,yaitu perambatan maju

dan perambatan mundur. Langkah

perambatan mundur ini dilakukan pada jaringan untuk setiap pola yang diberikan
selama jaringan mengalami pelatihan. Jaringan perambatan galat mundur terdiri
atas tiga lapisan atau lebih unit pengolah.
In p u t s ig n a ls
1

x1
x2

2
i

xi

y1

y2

yk

yl

w ij

w jk

m
n

xn
In p u t
la y e r

H id d e n
la y e r

O u tp u t
la y e r

E r r o r s ig n a ls

Gambar 2.8. Arsitektur Backpropagation


Gambar 2.8 menunjukkan jaringan perambatan galat mundur dengan tiga
lapisan pengolah, bagian kiri sebagai masukan, bagian tengah disebut sebagai
lapisan tersembunyi dan bagian kanan disebut lapisan keluaran. Ketiga lapisan ini
terhubung secara penuh. Perambatan maju dimulai dengan memberikan pola
masukan ke lapisan masukan. Pola masukan ini merupakan nilai aktivasi unit-unit
masukan. Dengan melakukan perambatan maju dihitung nilai aktivasi pada unitunit di lapisan berikutnya. Pada setiap lapisan,tiap unit pengolah melakukan
penjumlahan berbobot dan menerapkan fungsi sigmoid untuk menghitung
keluarannya.
Keluaran Hiden layer dengan menggunakan rumus

Yj( p ) Sigmoid xi ( p ) x wij ( p ) j


i 1

Sistem Pakar

145

Dimana
Yj=keluaran unit j
Sigmoid=fungsi aktivasi
Xi=input dari unit i
Wij=bobot dari unit i ke j

j =batas ambang unit j


P=iterasi
Keluaran Output layer dengan menggunakan rumus

Yk sigmoid Xjk ( p ) x Wjk ( p ) k


j 1

Dimana
Yk=keluaran unit k
Sigmoid=fungsi aktivasi
Xjk=input dari unit j
Wjk=bobot dari unit j ke k
k =batas ambang unit k

P=iterasi
Menentukan Erorr dengan menggunakan rumus

ek ( p) Yd , k ( p) Yk ( p)
Dimana
ek=error unit k(output layer)

Sistem Pakar

146

Ydk=output yang diharapkan pada unit k


Yk=output actual pada unit k
P=iterasi
Fungsi Aktivasi Ysigmoid
Sigmoid

1
1 e X

Dimana
x=nilai Yj/Yk
Gradien error Hidden

k ( p) Yk ( p) x 1 Yk ( p) x ek ( p)
Gradien error Input
l

j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p )


k 1

Langkah-Langkah Penyelesaian Backpropagation


1. Inisialisasi
Tentukan input, output yang diharapkan, bobot input, bobot hidden,
treshold hidden, threshold output, training rate,
2. Hitung keluaran hidden

Yj( p ) Sigmoid xi( p ) x wij ( p ) j


i 1

Gunakan fungsi aktivasi Ysigoid untuk menentukan keluaran hidden dan


output layer dengan rumus
Sigmoid

1
1 e X

3. Hitung keluaran output

Sistem Pakar

147

Yk sigmoid Xjk ( p ) x Wjk ( p ) k


j 1

4. Hitung error dengan rumus

ek ( p) Yd , k ( p) Yk ( p)
5. Update bobot hidden(Wjk)
a. Hitung gradien error

k ( p) Yk ( p) x 1 Yk ( p) x ek ( p)
b. Update bobot

Wjk ( p 1) Wjk ( p) Wjk ( p)


Wjk ( p) x Yj( p) x k ( p)
6. Update bobot input(Wij)
a. Hitung gradient error
l

j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p )


k 1

b. Update bobot

Wij( p 1) Wij( p) Wij( p)


Wij( p) x Xi( p) x j ( p)
7. Lakukan iterasi
Contoh Penerapan Back Propagation

1 0.8, 2 0.1, 3 0.3 , = 0.3


Dengan arsitektur 3-2-1(3 input, 2 hidden dan 1 output)

Sistem Pakar

148

Iterasi 1
4. Hitung output actual
a. Keluaran hidden layer

Yj( p ) Sigmoid xi( p ) x wij ( p ) j


i 1

Yj(1) Sigmoid (0 x0,2) (1x0,4) (1x0,5) 0,8


i 1

Yj(1) Sigmoid 0,1


Sigmoid

Y
Sigmoid

1
1 e X

1
1 e 0,1

Yj(1) 0,52

Yj(2) Sigmoid (0 x0,2) (1x0,3) (1x 0,3) 0,1


i 1

Yj(2) Sigmoid 0,1


Sigmoid

1
1 e 0,1

Yj(2) 0,47
b. Keluaran output layer

Yj(3) Sigmoid (0,52 x0,4) (0,47 x0,6) 0,3


i 1

Yj(3) Sigmoid 0,19


Sigmoid

Y
Sigmoid

Sistem Pakar

1
1 e X

1
1 e 0,19
149

Yj(3) 0,54
5. Hitung error

ek ( p) Yd , k ( p) Yk ( p)
ek (1) 0,54 1 0,46
Error tidak sama dengan nol, sehingga penelusura mundur(back) sambil
memperbaharui bobot hingga error =0
3. Update bobot hidden(Wjk)
a. Hitung gradien error output layer

k ( p) Yk ( p) x 1 Yk ( p) x ek ( p)
k (1) 0,54 x 1 0,54 x 0,46
k (1) 0,11

b. Update bobot hidden layer(Wjk1)

Wjk ( p) x Yj( p) x k ( p)
Wjk (1) 0,3 x 0,52 x 0,11
Wjk (1) 0,01
Wjk ( p 1) Wjk ( p) Wjk ( p)
Wjk (1) 0,4 (0,01) 0,39
c. Update bobot hidden layer (Wjk2)

Wjk ( p) x Yj( p) x k ( p)
Wjk (2) 0,3 x 0,47 x 0,11
Wjk (2) 0,01
Wjk ( p 1) Wjk ( p) Wjk ( p)
Wjk (2) 0,6 (0,01) 0,59

4. Update bobot input(Wij)


a. Hitung gradient error hidden(Y1)
l

j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p )


k 1

Sistem Pakar

150

j (1) 0,52 x 1 0,52 x (0,11) x0,4


j (1) 0,0110

b. Hitung gradient error hidden(Y2)


l

j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p )


k 1

j (2) 0,47 x 1 0,47 x (0,11) x0,6


j ( 2) 0,0164

c. Update bobot input layer(Wij1)

Wij( p) x Xi( p) x j ( p)
Wij(1) 0,3 x 0 x (0,0110) 0
Wij( p 1) Wij( p) Wij( p)
Wij(1) 0,2 0 0,2
d. Update bobot input layer(Wij2)

Wij( p) x Xi( p) x j ( p)
Wij(2) 0,3 x 1 x (0,0110) 0,0033
Wij( p 1) Wij( p) Wij( p)
Wij(2) 0,4 0,0033 0,4033
e. Update bobot input layer(Wij3)

Wij( p) x Xi( p) x j ( p)
Wij(3) 0,3 x 1 x (0,0110) 0,0033
Wij( p 1) Wij( p) Wij( p)
Wij(2) 0,5 0,0033 0,5033
f. Update bobot input layer(Wij4)

Wij( p) x Xi( p) x j ( p)
Wij(4) 0,3 x 0 x (0,0164) 0
Wij( p 1) Wij( p) Wij( p)
Wij(4) 0,2 0 0,2
g. Update bobot input layer(Wij5)

Sistem Pakar

151

Wij( p) x Xi( p) x j ( p)
Wij(5) 0,3 x 1 x (0,0164) 0,0049
Wij( p 1) Wij( p) Wij( p)
Wij(5) 0,3 (0,0049) 0,2051
h. Update bobot input layer(Wij6)

Wij( p) x Xi( p) x j ( p)
Wij(6) 0,3 x 1 x (0,0164) 0,0049
Wij( p 1) Wij( p) Wij( p)
Wij(6) 0,3 (0,0049) 0,3049
Untuk iterasi 1 sudah selesai dan hasil akhir setelah dilakukan
update bobot adalah

untuk mencapai error=0 harus dilanjutkan perhitungan untuk iterasi


selanjutnya dan melakukan update bobot

2.6. Decision Tree(Pohon Keputusan)


2.6.1. Pengantar Decision Tree

Sistem Pakar

152

Decision tree salah satu metode learning yang dapat mendefenisikan atau
menemukan aturan secara otomatis dan dapat berlaku umum untuk data-data
yang belum pernah di ketahui. Decision tree juga salah satu metode belajar yang
sangat populer dan banyak digunakan secara praktis karena dengan Decison tree
akan berusaha menemukan fungsi-fungsi pendekatan yang bernilai diskrit dan
tahan terhadap data-data yang terdapat kesalahan(noise data) serta mampu
mempelajari ekspresi-ekspresi disjunctive(ekpresi OR). Ada beberapa algoritma
yang termasuk dalam decision tree yaitu ASISTANT, C. 45 dan ID3. Dalam buku
ini fokus pembahasan tentang algoritma ID3(Iterative Dychotomizer version 3).
Dengan ID3 berusaha membangun pohon keputusan secara top-down(dari atas ke
bawah) yang dimulai dengan penentuan atribut sebagai akar(root). Untuk
menentukan root dengan cara mengevaluasi semua atribut dengan ukuran statistik
yaitu information gain dengan tujuan mengukur efektifitas atribut dalam
mengklasifikasikan kumpulan sampel data. Information Gain yang paling besar
adalah atribut sebagai root (Suyanto, 2011).
Table 2.8. Contoh Data Penerima Beasiswa
Nim

IPK

Kehadiran

Attitude

Dapat
Beasiswa

001

Bagus

Tinggi

Baik

Ya

002

Bagus

Sedang

Baik

Ya

003

Bagus

Sedang

Kurang

Ya

004

Bagus

Rendah

Kurang

Tidak

005

Cukup

Tinggi

Baik

Ya

006

Cukup

Sedang

Baik

Ya

007

Cukup

Sedang

Kurang

Ya

008

Cukup

Rendah

Kurang

Tidak

009

Kurang

Tinggi

Baik

Ya

010

Kurang

Sedang

Kurang

Tidak

011

Kurang

Rendah

Baik

Ya

Sistem Pakar

153

1. Entropy
Untuk menghitung information gain, terlebih dahulu dengan menghitung
entropy sebagai parameter untuk mengukur heterogenitas(keberagaman)
dari suatu kumpulan sampel. Jika kumpulan sampel data semakin
heterogen maka nilai entropy nya semakin besar. Secara matematis
dituliskan sebagai berikut
Entropy(S) =

pi log pi

Dimana C : jumlah nilai atribut target(jumlah kelas klasifikasi)


pi: jumlah sampel untuk kelas i

Tabel 2.8. menunjukkan data penerima mahasiswa, yang dikatakan target


adalah dapat beasiswa(Decision system) jumlah kelas=2 yaitu ya dan
tidak, berarti c=2. Jumlah data=11, untuk kelas ya=8 dan kelas tidak=3,
maka entropynya adalah:
entropy(S)=(8/11)*log2(8/11) (3/11)*log2(3/11)
2. Iformation Gain
Setelah mendapatkan hasil entropy, berikut mengukur mengukur evektivitas suatu
atribut dalam mengklasifikasikan data. Ukuran evektivitas ini disebut sebagai
information gain, secara matematis information gain dari suatu atribut
dituliskan sebagai berikut:

Gain(S, A) =

( )

( )

|Sv|
Entropy(Sv)
|S|

Di mana:
A

: atribut

: menyatakan suatu nilai yang mungkin untuk atribut A

Sistem Pakar

154

A,

Values(A)

: himpunan nilai-nilai yag mungkin untuk atribut A

|Sv|

: jumlah sampel untuk nilai v

|S|

: jumlah seluruh sampel data

Entropy(Sv)

: entropy untuk sampel_sampel yang memiliki nilai v

Untuk memahami information gain lebih detail, perhatikan bagaimana


menghitung information gain untuk IPK di bawah ini :

Pada table 2.8 di atas atribut dapat beasiswa =Ya dikatakan sebagai
sampel positif (+),dan atribut dapat beasiswa =Tidak dikatakan sebagai
sampel negatif (-), dari sampel data pada table 2.8 didapatkan:
Values(IPK)=Bagus,Cukup,Kurang
S=[8+,3-],|S|=11
SBagus=[3+,1-],|SBagus|=4
SCukup=[3+,1-],|SCukup|=4
SKurang=[2+,1-],|SKurang|=3

Selanjutnya,nilai-nilai

entropy

untuk

information gain untuk IPK adalah:


Entropy(S)=-(8/11)log2(8/11)-(3/11)log2(3/11)
=0,8454
Entropy(SBagus)=-(3/4)log2(3/4)-(1/4)log2(1/4)
=0,8113
Entropy(SCukup) =-(3/4)log2(3/4)-(1/4)log2(1/4)
=0,8113
Entropy(SKurang)=-(2/3)log2(2/3)-(1/3)log2(1/3)
=0,9183

Sistem Pakar

155

S,

SBagus,SCukup,SKurang

dan

Gain(S,IPK)= Entropy(S)-(4/11)Entropy(SBagus)-(4/11)Entropy(SCukup)
3/11)Entropy(SKurang)
=0,8454-(4/11)0,8113-(4/11)0,8113-(3/11)0,9183
=0,0049
2.6.2. AlgoritmaID3
IDE3 adalah algoritma decision tree learning (algoritma pembelajaran
pohon keputusan ) yang paling dasar. Algoritma ID3 melakukan pencarian secara
rakus/menyeluruh (greedy) pada semua kemungkinan pohon keputusan.
Alogoritma IDE3 dapat diimplementasikan mengunakan fungsi rekursif (fungsi
yang memangil dirinya sendiri ),sebagai berikut:
Function IDE3 (Kumpulan sampel,Atribut Target,Kumpulan Atribut )
1. Buat simpul Root
2. If semua sampel adalah kelas i,maka Return pohon satu simpul Rootn
dengan label=i
3. If kumpulan Atribut kosong ,Return pohon satu simpul Root dengan label
=nila atribut target yang paling umum (yang paling sering muncul)
Else

AAtribut yang merupakan the best classifer (dengan information


gain terbesar)

Atribut untuk keputussan untuk rootA

For vi (setiap nilai pada A)

Tambahkan suatu cabang di bawah Root sesuai nilai vi

Buat satu variabel ,misalnya sampel

vi,sebagai

himpunan

bagian(subset)dari kumpulan sampel yang bernilai


atribut A

If sampel vi kosong

Then

Sistem Pakar

156

vi

pada

di bawah cabang ini tambahkan suatu simpul daun(leaf


node,simpul yang tidak punya anak di bawahnya )dengan
label=nilai atribut target yang paling umum(yang pling
sering muncul)
Else
di

bawah

cabang

ini

tambahkan

subtree

dengan

memanggil fungsi ID3(Sampelvi,Atribut Target Atribut{A}

End
End
End
4.Retrun Root
Agar lebih memehami algoritma ID3 di atas,marilah kita terapkan
algoritma tersebut untuk menemukan decision tree yang tepat untuk data tabel 2.8
tentang data penerima beasiswa sebagai berikut:
Rekursi level 0 interasi ke-1
Memanggil fungsi ID3 dengan kumpulan sampel berupa semua sampel
data=[8+,3-],Atribut

Target=diterima,dan

kumpulan

atribut={IPK,Kehadiran,Attitude}. Pada halaman sebelumnya, kita sudah


menghitung information gain untuk IPK, yaitu Gain(S,IPK)=0,0049. Untuk
menemukan atribut yang merupakan the best classifer dan di letakkan sebagai
Root ,kita perlu menghitung information gain untuk 2 atribut yang lain, yaitu
Kehadiran dan Attitude. Dari tabel 2.8 dengan cara yang sama pada proses
penghitungan gain(S,IPK),kita dapatkan Gain (S,Kehadiran):
Values(Kehadiran)=Tinggi, Sedang, Rendah
S=[8+3-],|S|=11

Sistem Pakar

157

STinggi=[3+.0-],|STinggi|=3,Entropy(STinggi)=0
SSedang=[4+,1-] ,|SSedang|=5,Entropy(SSedang)=0,7219
SRendah=[1+,2-],|SRendah|=3,Entropy(SRendah)=0,9183
Gain(S,Kehadiran)=Entropy(S)-(3/11)Entropy(STinggi) -(5/11) Entropy(SSedang)(3/11)Entropy(SRendah)
=0,8454-(3/11)0-(5/11)0,7219-(3/11)0,9183
=0,2668
Dari tabel 2.8 dan dengan cara yang sama

pada proses penghitungan gain

(S,IPK),kita dapatkan Gain(S,Attitude):


Values(Attitude)=Baik,Buruk
S=[8+,3-),|S|=11
SBaik=[6+,0-),|SBaik|=6, Entropy(SBaik)=0
SBuruk=[2+,3-],|SBuruk|=5 Entropy(SBuruk)=0,9710
Gain (S, Attitude)= Entropy(S)-(6/11) Entropy(SBaik)-(5/11) Entropy(SBuruk)
=0,8454-(6/11)0-(5/11)0,9710
=0,4040
Dari tiga nilai information gain di atas,Gain(S, Attitude)adalah yang terbesar,
sehingga Attitude adalah atribut yang merupakan the best classifer dan harus di
letakkan sebagai Root. Selanjutnya ,setiap nilai pada atribut Attitude akan dicek
apakah perlu di buat subtree di level berikutnya atau tidak. Untuk nilai baik
terdapat 6 sampel ,berarti SampleBaik tidak kosong .Sehingga ,perlu memanggil
fungsi ID3 dengan kumpulan sampel berupa SampleBaik=[6+,0-],AtributTarget
=Diterima,dan Kumpulan Atribut={IPK,Kehadiran }.Pada tahap ini ,diperoleh
struktur pohon pada gambar 2.9 berikut ini

Sistem Pakar

158

Attitude
Baik

Gambar 2.9. Pohon keputusan yang dihasilkan pada rekursi level 1 iterasi
ke-1
Rekursi Level 1 iterasi ke-1
Memangil fungsi ID3 dengan kumpulan sampel berupa SampleBaik=[6+,0-]
Atribut Target=Diterima,dan KumpulanAtribut ={IPK,Kehadiran }.Karena
semua sample pada SampleBaik termasuk dalam kelas ya,maka fungsi ini akan
berhenti dan menggembalikan satu simpul tunggal Root dengan label ya pada
tahap ini,dihasilkan pohon pada gambar 5-3 selanjutnya,proses akan kembali ke
rekkursi level o ke 2.

Attitude

Baik

Ya

Gambar 2.10. Pohon keputusan yang di hasilkan pada rekursi level 1 iterasi
ke-1

Sistem Pakar

159

Rekursi Level o Iterasi ke-2


Pada rekursi level 0 iterasi ke-1 sudah dilakukan pengecekan untuk atribut
Attitude dengan nilai baik. Selanjutnya,dilakukan pengecekan untuk atribut
Attitude dengan nilai Buruk. Untuk nilai Buruk terdapat 5 sampel, berarti
sample

Buruk

tidak kosong, sehingga perlu memenggil fungsi ID3 dengan

kumpulan sampel berupa sampleBuruk =[2+,3-], Atribut Target=diterima, dan


kumpulan atribut ={IPK,Kehadiran}, pada tahap ini dihasilkan pohon sebagai
berikut.
Attitude

Baik

Buruk

Ya

Gambar 2.11 : pohon keputasan yang dihasilkan pada rekursi level 0 iterasi
ke-2
Rekursi Level 1 iterasi ke-2
Memanggil
SampleBuruk=[2+,3-

fungsi
]

ID3

dengan

kumpulan

sampel

,AtributTarget=Diterima,dan

berupa
kumpulan

atribut={IPK,Kehadiran}. Pada tahap ini,dilakukan perhitungan information gain


untuk atribut IPK dan Kehadiran, tetapi kumpulan semple yang diperhitungkan
adalah sampleBuruk

dengan 5 sample data,yaitu [2+,3-].dengan kata lain

,S=SampleBuruk

Sistem Pakar

160

Values(IPK)=Bagus,Cukup,Kurang
S=SampleBuruk=[2+,3-],|S|=5
SBagus=[1+,1-],|SBagus|=2
SCukup=[1+,1-],|SCukup|=2
SKurang=[0+,1-],|SKurang|=1
Selajutnya, nilai-nilai entropy untuk S, SBagus, SCukup, SKurang,dan information gain
untuk IPK adalah:
Entropy(S)=-(2/5)log2,(2/5)-(3/5)log2(3/5)
=0,9710
Entropy(SBagus)=-(1/2)log2(1/2)-(1/2)log2(1/2)
=1
Entropy(SCukup)=-(1/2)log2(1/2)-(1/2)log2(1/2)
=1
Entropy(SKurang)=(0)log2(0)-(1)log2(1)
=0
Gain(S,IPK)= Entropy(S) - (2/5)Entropy(SBagus) - (2/5)Entropy(SCukup) (1/5)Entropy(SKurang)
=0,9710-(2/5)1-(2/5)1-(1/5)0
=0,1710
Values(Kehadiran)=Tinggi,Sedang,Rendah
S=SampleBuruk=[2+,3-],|S|=5, Entropy(S)=0,9710
STinggi=[0+,0-],|STinngi|=0,Entropy(STinggi)=0

Sistem Pakar

161

SSedang=[2+,1-]|SSedang|=3 Entropy(SSedang)=0,9183
SRendah=[0+,2-],|SRendah|=2, Entropy(SRendah)=0
Gain(S, Kehadiran)= Entropy(S) - (0/5)Entropy(STinggi) - (3/5)Entropy(SSedang) (2/5)Entropy(SRendah)
=0,9710-(0/5)0-(3/5)0,9183-(2/5)0
=0,4200
Dari dua nilai information gain di atas ,gain (S, Kehadiran) adalah yang terbesar,
sehingga Kehadiran adalah adalah atribut yang merupakan the best classifer dan
harus di letakkan sebagai simpul di bawah simpul Attitude pada cabang nilai
Buruk . Selanjutnya ,setiap nilai pada atribut Kehadiran akan di cek apakah
perlu di buat subtree di level berikut nya atau tidak .Utuk nilai Tinggi (Pada
kumpulan sampel berupa SampleBuruk=[2+,3-]),terdapat 0 sampel, berarti
SampleTinggi kosong. Sehingga perlu dibuat satu simpul daun (leaf node,simpul
yang tidak punyak anak di bawahnya) dengan label yang paling sering muncul
pada SampleBuruk yaitu tidak. Kemudian dilakukan pengecekan untuk atribut
Kehadiran bernilai

sedang. Untuk nilai Sedang (Pada Kumpulan Sampel

berupa SampleBuruk =[2+,3-]),terdapat tiga sample ,berarti sampleSedang tidak


kosong. Sehingga perlu memangil fungsi IDE3 dengan kumpulan sample berupa
SampleSedang=[2+,1-], Atribut Target =Diterima ,dan kumpulan Atribut
={IPK}.pada tahap ini ,di proleh keputusan pada gambar 2.11 di bawah ini.

Sistem Pakar

162

Attitude

Baik

Buruk

Kehadiran

Ya

Tinggi

Sedang

Tidak

Gambar 2.11: pohon keputusan yang dihasilkan pada rekursi level 1 iterasi
ke-2
Rekursi level 2 iterasi ke-1
Memanggil funggsi ID3 dengan kumpulan Sample berupa SampleSedang=[2+,1],Atribut Target=Diterma, dan kumpulan Atribut={IPK}, karena kumpulan
Atribut hanya berisi 1 Atribut(yaitu IPK), maka Atribut yang menjadi the best
classifier adalah IPK dan harus diletakkan sebagai simpul di bawah simpul
Kehadiranpada cabang nilai Sedang. Selanjutnya,setiap nilai pada Atribut IPK
akan dicek apakah perlu di buat sub tree di level berikutnya atau tidak. Untuk nilai
Bagus(pada kumpulan sampel berupa SampleSedang =[2+,1-]), terdapat 1 sampel
,berarti sample bagus tidak kosong .Sehingga pelu memanggil fungsi ID3 dengan
kumpulan sample bagus=[1+,0-], Atribut Target =Diterima dan kumpulan
Atribut={}. Sehingga,diperoleh pohon pad gambar 2.12 di bawah ini.

Sistem Pakar

163

Attitude

Baik

Buruk

Kehadira
n

Ya

Tinggi

Tidak

Sedang

IPK

Bagus

Gambar 2.12: pohon keputusan yang dihasilkan pada rekursi level 2 iterasi
ke-1
Rekursi Level 3 iterasi ke-1
Memangil

fungsi ID3 dengan kumpulanSampel berupa SampleBagus=[1+,0-],

AtributTarget =Diterima dan kumpulan Atribut ={}. Karena semua sampel pada
SampleBagus termasuk dalam kelas Ya maka fungsi ini akan berhenti dan
mengembalikan satu simpul tunggal Root dengan label Ya . Sehingga dihasilkan
pohon pada gambar 2.13 di bawah ini .Selanjutnnya ,proses akan kembali ke
rekursi level 2 untuk iterasi ke -2

Sistem Pakar

164

Attitude

Baik

Buruk

Ya

Kehadiran

Tidak

Tinggi

Sedang

IPK

Bagus

Ya

Gambar 2.13: pohon keputusan yang dihasilkan pada rekursi level 3 iterasi
ke-1
Rekursi Level 2 iterasi ke-2
Pada rekursi Level 2 iterasi ke-1, sudah dilakukan pengecekan atribut IPK
untuk nilai Bagus. Selanjutnya pengecekan dilakukan pada atribut IPK untuk
nilai Cukup .Ternyata ,terdapat 1 sampel pada kumpulan sampel dimana
Attitude bernilai Buruk dan Kehadiran bernilai Sedang. Karena SampleCukup
tidak kosong, maka perlu memanggil fungsi ID3 dengan kumpulan Sampel berupa

Sistem Pakar

165

SampleCukup=[1+,0-] ,AtributTarget =Diterima ,dan kumpulan Atribut ={}.


Sehingga diproleh pohon pada gambar 2.14 di bawah ini.

attitude

Baik

Buruk

Ya
Hadir

Tidak

Sedang

Tinggi
IPK

Bagus
Cukup

Ya

Gambar 2.14. Pohon keputusan yang dihasilkan pada rekursi level 2 iterasi
ke-2

Sistem Pakar

166

Rekursi Level 3 iterasi ke-2


Memangil fungsi ID3 dengan KumpulanSampel berupa SampleCukup=[1+,0-],
AtributTargget =Diterima dan KumpulanAtribut ={}.karena semua sampel pada
SampleCukuptermasuk ke dalam kelas ya. Sehinga dihasilkan pohon pada gambar
2.15 di bawah ini. Selanjutnya proses akan kembali ke rekursi level 2 untuk
iterasi ke-3.

Atitude

Baik

Buruk

Ya
Hadir

Tidak

Sedang

Tinggi
IPK

Bagus

Cukup

Ya
Ya

Gambar 2.15. Pohon keputusan yang dihasilkan pada rekursi level 3 iterasi
ke-2

Sistem Pakar

167

Rekursi Level 2 iterasi ke-3


Pada rekursi level 2 iterasi ke-1 dan ke-2, sudah dilakukan pengecekan atribut IPK
untuk nilai Bagus dan Cukup. Selanjutnya, pengecekan dilakukan atribut IPK
untuk nilai Kurang.ternyata, terdapat 1 sampel pada kumpulan sampel dimana
Wawancara bernilai Buruk dan psikologi bernilaiSedang. Karena Sample Kurang
tidak kosong ,maka perlu memanggil fungsi ID3 dengan kumpulsn sampel berupa
SapleKurang=[o+,1-], AtributTarget =Diterma,dan Kumpulan Atribut ={}.pada
tahap ini ,diproleh pohon pada gambar 2.16 di bawah ini:

Attitude

Baik

Buruk

Ya

Hadir

Tidak

Tinggi

Sedang

IPK

Bagus

Cukup

Kurang

Gambar 2.16. Pohon keputusan yang di hasilkan pada rekursi level 2 itersai
ke-3
Ya
Ya

Psikologi

a
Sistem Pakar

Psikologi

168

Rekursi Level 3 iterasi ke-3


Memanggil funsi ID3 dengan kumpulan sampel berupa sampleKurang =[0+,1],AtributTarget=Diterima dan kumpulanAtribut ={}. Karena sumua sampel pada
SampleKurangtermasuk kedalam kelasTidak ,maka fungsi ini akan berhenti dan
mengembalikan satu simpul tunggal Root dengan labelTidak .sehinga dihasilkan
pohon pada gambar 2.17 di bawah ini. Selanjutnya,proses akan kembali ke rekursi
level1untuk iterasi ke-3.

Atttude

Baik

Buruk

Ya

Hadir

Tidak

Tinggi

IPK

Bagus

Ya

Sistem Pakar

169

Sedang

Cukup

Ya

Kurang

Tidak

Gambar 2.17. Pohon keputusan yang dihasilkan pada rekursi level 3 iterasi
ke-3
Rekursi level 1 interasi ke-3
Pada rekursi level 1 iterasi ke-2,sudah dilakukan pengecekan atribut Kehadiran
untuk nilai Tinggi dan Sedang . Selanjutnya pengecekan dilakukan pada atribut
Kehadiran untuk nilaiRendah .ternyata ,terdapat 2 sampel pada kumpulan
sampel dimana attutude bernilai Buruk dan kehadiran bernilaiRendah. Karena
SampleRendahtidak klosong,maka perlu memanggil fumgsi ID3 dengan kumpulan
sampel

berupa

SampleRendah

=[0+,2-],

AtributTarget

=Diterima

,dan

KumpulanAtribut ={IPK}.pada tahap ini, di piproleh pohon pada gambar 5-12 di


bawah ini.Selanjutnya, proses akan kembali kerekursi level 2 untuk iterasi ke-4.
Attitude

Buruk

Baik

Hadir

Ya

Tidak

Tinggi

IPK

Bagus

Ya
Sistem Pakar

170

Sedang

Cukup

Ya

Kurang

Tidak

Gambar 2.18. Pohon keputusan yang dihasilkan pada rekursi level 1 iterasi
ke-3
Rekursi level 2 interasi ke-4
Memangiil fungsi ID3 dengan kumpulan sample berupa SampleRendah=[0+,2],AtributTarget=Diterima,dan kumpulan Atribut={IPK}.karna semua Sample
pada Sample Rendah termasuk dalam kelasTidak,maka fungsi ini akan berhenti
dan mengembalikan 1 simpul tunggalRootdengan labelTidak.proses selesai
dan mengembalikan pohon keputusan pada Gambar

2.19 dibawah ini.

attitude

Buruk

Baik

Ya

Hadir

Tidak

Sedang

Kurang

IPK

Bagus

Ya

Cukup

Kurang

Ya

Gambar 2.19. Pohon keputusan akhir yang dihasilkan oleh fungsi ID3 .

Sistem Pakar

171

Tidak

Ilustrasi langkah-langkah algoritma ID3 di atas menunjukkan bahwa ID3


melakukan strategi pencarian hill-climbing: dimulai dari pohon kosong, kemudian
secara

progresif

berusaha

menemukan

sebuah

pohon

keputusan

yang

mengklasifikasikan sampel-sampel data secara akurat tanpa kesalahan.pada akhir


proses ,ID3 mengembalikan sebuah pohon keputusan (lihat gambar 5-13 di atas)
yang manpu mengklasifikasikan 11 sampel data pada tabel 5-1 secara akurat tanpa
kesalahan. Pohon keputusan tersebut dapat di tuliskakn dalam first order logic
pada persamaan di bawah ini .konversi dilakukan dengan melihat leaf node yang
bernilai Ya .lakukan penelusuran mulai dari simpul root menuju ke tiga leaf
node tersebut.lakukan operasi conjunction (^)pada setiap simpul yang dikunjungi
sampai ditemukan leaf node Ya .kemudian ,lakukan operasi disjunction (V)
pada ketiga hasi penelusuran tersebut. Dengan demikian persamaan

ini bisa

menggantikan pohon keputusan tersebut dalam mengklasifikasikan sampel data ke


dalam kelas Ya dan Tidak
(attiude=Baik,)V
((attitude=Buruk)^(kehadiran=Sedang)^ (IPK=Bagus))V
((attitude=Buruk)^(kehadiran=Sedang)^(IPK=Cukup))
=>Diterima=Ya

Tetapi, apakah pohon keputusan yang dihasilkan tersebut adalah yang baik?suatu
proses decision Tree learning (pembelajaran pohon keputusan) di katakan berhasil
jika pohon keputusan yang dihasilkan bisa mengklasifikasikan sampel-sampel
data lainnya yang belum pernah di perlajari. Pohon keputusan gambar 2.19
tersebut di hasilkan dari proses belajar terhadap 11 sampel data yang telah tersedia
pada tabel 2.8. Masih ada 7 sample data lainnya yang belum pernah dipelajari.
Pertanyaannya,apakah pohon keputusan tersebut juga mampu mengklasifasikan
ke tujuh sampel data lainnya secara akurat? misalkan,ketujuh sample data yang
lain adalah seperti pada tabel 2.9 di bawah ini. Ternyata,ketujuh sample data
berhasil di klasifikasikan secara akurat oleh pohon keputusan tersebu. Kejadian

Sistem Pakar

172

seperti ini bisa jadi hanya 1 kebetulan saja karna jumlah sample data yang belum
pernah di pelajari lebih sedikit di bandingkan jumlah data yang sudah pernah di
pelajari.bagaimana jika kita menghadapi masalah dimana sample data yang belum
pernah di pelajari berjumlah sangat besar?
masing-masing

atribut

memiliki

Misalkan terdapat 20 atribut yang


nilai

berbeda,

sehingga

terdapat

3,486,784.401sample data yang mungkin. Tetapi,kita hanya memiliki 10.000


sample data untuk dilatihkan ke ID3. Apakah pohon keputusan yang di hasilkan
akan mampu mengklasifasikan 3,486,784.401 sample data lainnya secara akurat?
tentu saja kemungkinannya sangat kecil.
Tabel 2.9: Tujuh sample data uji.
Nim
012
013
014
015
016
017
018

IPK
Bagus
Bagus
Cukup
Cukup
Kurang
Kurang
Kurang

Kehadiran
Tinggi
Rendah
Tinggi
Rendah
Tinggi
Sedang
Rendah

Attitude
Buruk
Baik
Buruk
Baik
Buruk
Baik
Buruk

Dapat
Beasiswa
Tidak
Ya
Tidak
Ya
Tidak
Ya
Tidak

2.6.2. Permasalahan pada Decision Tree Learning


Pada aplikasi dunia nyata, terdapat

lima permasalahan pada decision tree

learning, yaitu berapa ukuran pohon keputusan yang tepat? selain informasion
Gain, adakah ukuran pemilihan atribut yang lain? bagaimana jika atribut nya
bernilai kontinyu? Bagaimana menangani sample data yang atributnya bernilai
kosong? dan bagaimana menangani atribut-atribut yang memiliki biaya yang
berbeda?

Sistem Pakar

173

BAB III
SISTEM PAKAR

3.1. Sekilar Tentang Artificial Inteligence


Manusia diciptakan dengan kecerdasan yang sangat luar biasa. Pada usia 3
tahun seorang balita sudah mampu berkomunikasi dengan baik menggunakan
bahasa ibunya, mampu mengenali berbagai benda meskipun hanya terlihat bagian
tertentu dari benda tersebut. Seiring bertambahnya usia maka sianak pun juga
berkembang kecerdasannya dengan sangat pesat, baik kecerdasan kognitif,
emosional maupun spritualnya, sampai sampai saat ini belum ada satu mesinpun
yang mampu menyamai kecerdasan manusia secara keseluruhan (Suyanto, 2011).
Kecerdasan buatan ( artificial inteligence ) merupakan salah satu bagian
ilmu komputer yang membuat agar mesin ( komputer) dapat melakukan pekerjaan
seperti yang sebaik dilakukan manusia (Sri Kusumadewi, 2003). Artificial
inteligence adalah bidang ilmu komputasi yang memungkinkan untuk memahami,
bernalar dan bertindak. Dari persfektif defenisi ini, artificial inteligence berbeda
dengan sebagian besar psikologi sebab penekanan pada komputasi, dan berbeda
dengan kebanyakan ilmu komputer sebab adanya penekanan pada persepsi
penalaran dan tindakan. Dari persfektif tujuan, artificial inteligence dapat
dipandang sebagai bagian ilmu teknik dan bagian ilmu pengetahuan
1. Tujuan teknik berarti memecahkan masalah dunia nyata dengan
menggunakan kecerdasan buatan sebagai senjata bagi gagasan tentang
penyajian pengetahuan, penggunaan pengetahuan dan penyusunan
sistem
2. Tujuan ilmiah berarti untuk menentukan gagasan mana yang
berkenaan dengan penyajian pengetahuan, penggunaan pengetahuan
dan penyususunan sistem yang menjelaskan berbagai macam
inteligensi.

Sistem Pakar

174

Pengertian kecerdasan buatan dapat di pandang dari berbagai sudut pandang,


antara lain :
1. Sudut pandang kecerdasan.
Kecerdasan buatan akan membuat mesin menjadi cerdas dalam arti
mampu berbuat seperti apa yang dilakukan manusia.
2. Sudut pandang penelitian.
Kecerdasan buatan adalah suatu studi bagaimana membuat agar
komputer dapat melakukan sesuatu sebaik yang dikerjakan
manusia.
3. Sudut pandang bisnis.
Kecerdasan buatan adalah kumpulan peralatan yang sangat
powerful dan metodologis dalam mnyelesaikan masalah-masalah
bisnis.
4. Sudut pandang pemrograman.
Kecerdasan meliputi studi tentang pemrograman simbolik,
penyelesaian masalah dan pencarian.
Lingkup Utama dari kecerdasan buatan adalah sebagai berikut :
1. Sistem Pakar ( Expert System ). Disini komputer digunakan untuk
menyimpan pengetahuan para pakar.
2. Pengelolaan Bahasa Alami ( Natural Language Processing ). Dengan
pengolahan bahasa alami ini diharapkan user dapat berkomunikasi
dengan komputer dengan menggunakan bahasa sehari-hari.
3.

Pengenalan Ucapan ( Speech Recognition ). Melalui pengenalan


ucapan diharapkan manusia dapat berkomunikasi dengan komputer
dengan menggunakan suara.

4.

Robotika & Sistem Sensor ( Robotics & Sensory System).

5. Computer Visio, mencoba untuk dapat menginterprestasikan gambar


atau obyek-obyek tampak melalui komputer.
6. Intelligent Computer-aided Instruction.Komputer dapat digunakan
sebagai tutor dalam melatih dan mengajar.
7. Game Playing.

Sistem Pakar

175

Beberapa karakteristik yang ada pada sistem yang menggunakan artificial


inteligence adalah pemrograman yang cenderung bersifat simbolik ketimbang
algoritmik, bisa mengakomodasi input yang tidak lengkap. Ada beberapa konsep
yang harus dipahami dalam kecerdasan buatan, diantaranya (Kusrini, 2006) :
1. Turing Test Metode pengujian kecerdasan buatan.
Merupakan sebuah metode pengujian kecerdasan buatan yang dibuat oleh
Alan Turing.
2. Pemrosesan Simbolik.
Sifat penting dari AI adalah bahwa AI merupakan bagian ilmu komputer
yang melakukan proses secara simbolik dan non-algoritmik dalam
penyelesaian masalah.
3. Heuristic
Merupakan suatu strategi untuk melakukan proses pencarian (search)
ruang problem secara selektif, yang memandu proses pencarian yang
dilakukan sepanjang jalur yang memiliki kemungkinan sukses paling
besar.
4. Penarikan Kesimpulan (Inferencing)
AI mencoba membuat mesin memiliki kemampuan berfikir atau
mempertimbangkan

(reasoning).

Kemampuan

berfikir

termasuk

didalamnya proses penarikan kesimpulan berdasarkan fakta-fakta dan


aturan dengan menggunakan metode heuristik atau metode pencarian
lainnya.
5. Pencocokan Pola (Pattern matching)
AI bekerja dengan mencocokkan pola yang berusaha untuk menjelaskan
objek, kejadian atau proses, dalam hubungan logik atau komputasional.
Jika dibandingkan dengan kecerdasan alami (kecerdasan yang dimiliki
manusia)

Kecerdasan buatan memiliki beberapa keuntungan secara komersial,


antara lain :
1. Lebih Permanen.

Sistem Pakar

176

2. Memberikan kemudahan dalam duplikasi dan penyebaran.


3. Relatif lebih murah dari kecerdasan alamiah.
4. Konsisten dan teliti.
5. Dapat didokumentasikan.
6. Dapat mengerjakan beberapa task dengan lebih cepat dan lebih baik
dibandingkan manusia

3.1.1. Pengertian Sistem Pakar


Sistem Pakar ( Expert System ) adalah sistem yang berusaha mengadopsi
pengetahuan manusia ke komputer, agar komputer dapat menyelesaikan masalah
seperti biasa yang dilakukan para ahli (Sri Kusumadewi, 2003). Sistem pakar
(expert system) mulai dikembangkan pada pertengahan tahun 1960-an oleh
Artificial Intelligence Corporation. Sistem pakar yang muncul pertama kali adalah
General-purpose Problem Solver (GPS) yang merupakan sebuah predecessor
untuk menyusun langkah-langkah yang dibutuhkan untuk mengubah situasi awal
menjadi state tujuan yang telah ditentukan sebelumnya dengan menggunakan
domain masalah yang kompleks. Sistem pakar dapat diterapkan untuk persoalan di
bidang industri, pertanian, bisni, kedokteran, militer, komunikasi dan transportasi,
pariwisata, pendidikan, dan lain sebagainya. Permasalahan tersebut bersifat cukup
kompleks dan terkadang tidak memiliki algoritma yang jelas di dalam
pemecahannya, sehingga dibutuhkan kemampuan seorang atau beberapa ahli
untuk mencari sistematika penyelesaiannya secara evolutif.
Sistem pakar merupakan program yang dapat menggantikan keberadaan
seorang pakar. Alasan mendasar mengapa sistem pakar dikembangkan
menggantikan seorang pakar adalah sebagai berikut :
2.

Dapat menyediakan kepakaran setiap waktu dan di berbagai lokasi.

6. Secara otomatis mengerjakan tugas-tugas rutin yang membutuhkan


seorang pakar.
7. Seorang pakar akan pensiun atau pergi.
8. Menghadirkan atau menggunkan jasa seorang pakar memerlukan biaya
yang mahal.

Sistem Pakar

177

9. Kepakaran dibutuhkan juga pada lingkungan yang tidak bersahabat


(hostile environment).

3.1.2. Konsep Dasar Sistem Pakar


Pengetahuan dari suatu sistem pakar mungkin dapat direpresentasikan
dalam

sejumlah

cara.

Salah

satu

metode

yang

paling

umum

untuk

merepresentasikan pengetahuan adalah dalam bentuk tipe aturan (rule) IF..Then


(Jika..maka). Walaupun cara diatas sangat sederhana, namun banyak hal yang
berarti dalam membangun sistem pakar dengan mengekspresikan pengetahuan
pakar dalam bentuk aturan diatas. Konsep dasar dari suatu sistem pakar
mengandung beberapa unsur/elemen, yaitu: (Muhammad Arhami, 2005)
1. Keahlian
Keahlian merupakan suatu penguasaan pengetahuan dibidang tertentu
yang didapatkan dari pelatihan, membaca atau pengalaman.
2. Ahli
Seorang ahli adalah seorang yang mampu menjelaskan suatu tanggapan,
mempelajari hal-hal baru seputar topik permasalahan (domain), menyusun
kembali pengetahuan, memecah aturan-aturan jika diperlukan dan
menentukan relevan tidaknya keahlian mereka.
3. Pengalihan keahlian
Pengahlian keahlian dari para ahli ke komputer untuk kemudian dialihkan
lagi keorang lain yang bukan ahli (tujuan utama sistem pakar). Proses ini
membutuhkan 4 aktivitas, yaitu: tambahan pengetahuan (dari para ahli atau
sumber-sumber lainnya), representasi pengetahuan yang berupa fakta dan
prosedur

(ke

komputer),

inferensi

pengetahuan ke pengguna.
4. Inferensi

Sistem Pakar

178

pengetahuan

dan

pengalihan

Mekanisme inferensi merupakan perangkat lunak yang melakukan


penalaran

dengan

menggunakan

pengetahuan

yang

ada

untuk

menghasilkan suatu kesimpulan atau hasil akhir.


5. Aturan
Aturan merupakan informasi tentang cara bagaimana memperoleh fakta
baru dari fakta yang telah diketahui.
6. Kemampuan menjelaskan.
Kemampuan komputer untuk memberikan penjelasan kepada pengguna
tentang sesuatu informasi tertentu dari pengguna dan dasar yang dapat
digunakan oleh komputer untuk dapat menyimpulkan suatu kondisi.

3.1.3. Ciri-Ciri Sistem Pakar


Sistem pakar yang baik harus memiliki ciri-ciri sebagai berikut :
1. Memiliki fasilitas informasi yang handal, baik dalam menampilkan
langkah-langkah maupun dalam menjawab pentanyaan-pertanyaan tentang
proses penyelesaian.
2. Mudah dimodifikasi, yaitu dengan menambah atau menghapus suatu
kemampuan dari basis pengetahuannya.
3. Heuritik

dalam

menggunakan

pengetahuan

untuk

mendapatkan

penyelesaiannya.
4. Dapat digunakan dalam berbagai jenis komputer.
5. Memiliki kemampuan untuk beradaptasi.

Bidang-Bidang Pengembangan Sistem Pakar


Ada beberapa kategori pengembangan sistem pakar, antara lain:
1. Kontrol.
Contoh pengembangan banyak ditemukan dalam kasus pasien di rumah
sakit, di mana dengan kemampuan sistem pakardapat dilakukan kontrol
terhadap cara pengobatan dan perawatan melalui sensor data atau kode
alarm dan memeberikan solusi terapi pengobatan yang tepat bagi pasien
yang sakit.

Sistem Pakar

179

2. Desain.
Contoh sistem pakar di bidang ini adalah PEACE yang dibuat Dincbas
untuk membantu desain pengembangan sirkuit elektronik dan sistem pakar
yang membantu desain komputer dengan komponen-komponennya.
3. Diagnosis.
Pengembangan sistem pakar terbesar adalah di bidang diagnosis, seperti
diagnosis penyakit, diagnosis kerusakan mesin kendaraan bermotor,
diagnosis kerusakan komponen komputer, dan lain-lain.
4. Instruksi.
Instruksi merupakan pengembangan sistem pakar yang sangat berguna
dalam bidang ilmu pengetahuan dan pendidikan, di mana sistem pakar
dapat memberikan instruksi dan pengajaran tertentu terhadap suatu topik
permasalahan. Contoh pengembangan sistem pakar di bidang ini adalah
sistem pakar untuk pengajaran bahasa inggris, sistem pakar buntuk
pengajaran astronomi, dan lain-lain.
5. Interprestasi.
Sistem pakar yang dikembangkan dalam bidang interprestasi melakukan
pemahaman akan suatu situasi dari beberapa informasi yang direkam.
Contoh sistem yang dikembangkan dewasa ini adalah sistem untuk
melakukan sensor gambar dan suara kemudian menganalisisnya dan
kemudian membuat suatu rekomendasi berdasarkan rekaman tersebut.
6. Monitor. Sistem pakar dalam bidang ini banyak digunakan militer, yaitu
menggunakan sensor radar kemudian menganalisisnya dan menentukan
posisi objek berdasarkan posisi radar tersebut.
7. Perencanaan.
Perencanaan banyak digunakan dalam bidang bisnis dan keuangan suatu
proyek, di mana sistem pakar dalam membuat perencanaan suatu
pekerjaan berdasarkan jumlah tenaga kerja, biaya dan waktu sehingga
pekerjaan menjadi lebih efisien.
8. Prediksi.

Sistem Pakar

180

Sistem pakar dapat memprediksi kejadian masa mendatang berdasarkan


informasi dan model permasalahan yang dihadapi. Biasanya sistem
meberikan simulasi kejadian masa mendatang tersebut, misalnya
memprediksi tingkat kerusakan tanaman apabila terserang hama dalam
jangka waktu tertentu.
9. Seleksi.
Sistem pakar dengan seleksi mengidentifikasikan pilihan terbaik dari
beberapa daftar pilihan kemungkinan solusi.
10. Simulasi.
Sistem ini memproses operasi dari beberapa variasi kondisi yang ada dan
menampilkannya dalam bentuk simulasi. Contoh yaitu program untuk
menganalisis hama dengan berbagai kondisi suhu dan cuaca.

3.1.4. Struktur Sistem Pakar


Sistem pakar disusun oleh dua bagian utama, yaitu: lingkungan
pengembangan
(consultation

(development
environment)

environment)
(Muhammad

dan

lingkungan

Arhami,

2005).

konsultasi
Lingkungan

pengembangan sistem pakar digunakan untuk memasukkan pengetahuan pakar


kedalam lingkungan sistem pakar, sedangkan lingkungan konsultasi digunakan
oleh pengguna yang bukan pakar guna memperoleh pengetahuan pakar.

Komponen-komponen yang terdapat dalam sistem pakar antara lain adalah


sebagai berikut :
2. Antarmuka pengguna (user interface)
User interface merupakan mekanisme yang digunakan oleh pengguna dan
sistem pakr untuk berkomunikasi. Antarmuka menerima informasi dari
pemakai dan mengubahnya kedalam bentuk yang dapat diterima oleh
sistem. Pada bagian ini terjadi dialog antara program dan pemakai, yang

Sistem Pakar

181

memungkinkan sistem pakar menerima instruksi dan informasi (input) dari


pemakai, juga memberikan informasi (output) kepada pemakai.
3. Basis Pengetahuan
Basis pengetahuan berisi pengetahuan-pengetahuan dalam penyelesaian
masalah dalam domain tertentu.Ada dua bentuk pendekatan basis
pengetahuan yang sangat umum digunakan, yaitu :
a) Penalaran berbasis aturan (Rule-Based Reasoning)
Pengetahuan direpresentasikan dengan menggunakan aturan berbentuk : IFTHEN. Bentuk ini digunakan apabila memiliki sejumlah pengetahuan pakar
pada suatu permasalahan tertentu, dan pakar dapat menyelesaikan masalah
tersebut secara berurutan.
b) Penalaran berbasis kasus (Case-Based Reasoning)
Basis pengetahuan berisi solusi-solusi yang telah dicapai sebelumnya,
kemudian akan diturunkan suatu solusi untuk keadaan yang terjadi sekarang.
3. Akuisisi Pengetahuan (knowledge acquisition)
Akuisisi pengetahuan adalah akumulasi, transfer, dan transformasi keahlian
dalam menyelesaikan masalah dari sumber pengetahuan kedalam program
komputer. Dalam tahap ini knowledge engineer berusaha menyerap
pengetahuan

untuk

selanjutnya

di

transfer

ke

dalam

basis

pengetahuan.Terdapat empat metode utama dalam akuisisi pengetahuan, yaitu:


wawancara, analisis protocol, observasi pada pekerjaan pakar dan induksi
aturan dari contoh.
4. Mesin inferensi
Mesin inferensi merupakan perangkat lunak yang melakukan penalaran dengan
menggunakan pengetahuan yang ada untuk menghasilkan suatu kesimpulan
atau hasil akhir. Dalam komponen ini dilakukan permodelan proses berfikir
manusia.
5. Workplace
Workplace merupakan area dari sekumpulan memori kerja yang digunakan
untuk merekam hasil-hasil dan kesimpulan yang dicapai. Ada tiga tipe
keputusan yang direkam, yaitu :

Sistem Pakar

182

a) Rencana : Bagaimana menghadapi masalah.


b) Agenda : Aksi-aksi yang potensial yang sedang menunggu untuk eksekusi.
c) Solusi : calon aksi yang akan dibangkitkan.
6. Fasilitas penjelasan
Fasilitas penjelasan adalah komponen tambahan yang akan meningkatkan
kemampuan sistem pakar. Komponen ini menggambarkan penalaran sistem
kepada pemakai dengan cara menjawab pertanyaan-pertanyaan.
7. Perbaikan pengetahuan
Pakar memiliki kemampuan untuk menganalisis dan meningkatkan kinerjanya
serta kemampuan untuk belajar dan kinerjanya. Komponen-komponen sistem
pakar dalam kedua bagian tersebut dapat dilihat pada gambar 2.1 berikut ini:

Gambar 3.1 Komponen sistem pakar (sumber: M.Arhami (2005))

3.1.5. Keuntungan Sistem Pakar


Sistem pakar merupakan paket perangkat lunak atau paket program
komputer yang ditujukan sebagai penyedia nasehat dan sarana bantu dalam
menyelesaikan masalah di bidang-bidang spesialisasi tertentu. Ada beberapa
keunggulan dari sistem pakar, diantaranya dapat :
1. Menghimpun data dalam jumlah yang sangat besar.

Sistem Pakar

183

2. Menyimpan data tersebut untuk jangka waktu yang panjang dalam suatu
bentuk tertentu.
3. Mengerjakan perhitungan secara cepat dan tepat dan tanpa jemu mencari
kembali data yang tersimpan dengan kecepatan tinggi.
Ada banyak keuntungan yang dapat diperoleh dengan adanya sistem pakar antara
lain sebagai berikut :
1. Memungkinkan orang awam dapat mengerjakan pekerjaan para ahli.
2. Dapat melakukan proses berulang secara otomatis.
3. Menyimpan pengetahuan dan keahlian para pakar.
4. Meningkat output dan produktivitas.
5. Meningkatkan kualitas.
6. Mampu mengambil dan melestarikan keahlian para pakar.
7. Mampu beroperasi dalam lingkungan yang berbahaya.
8. Memiliki kemampuan untuk mengakses pengetahuan.
9. Memiliki reliabilitas.
10. Meningkatkan kapabilitas sistem komputer.
11. Memiliki kemampuan untuk bekerja dengan informasi yang tidak lengkap
dan mengandung ketidakpastian.
12. Sebagai media pelengkap dalam pelatihan.

3.1.6. Representasi pengetahuan


Representasi pengetahuan merupakan metode yang digunakan untuk
mengkodekan

pengetahuan

dalam

sebuah

sistem

pakar

yang

berbasis

pengetahuan. Perepresentasian dimaksudkan untuk manangkap sifat-sifat penting


problema dan membuat informasi itu dapat diakses oleh prosedure pemecahan
problema (Kusrini, 2006). Bahasa representasi harus dapat membuat seorang
perogram mampu mengekspresikan pengetahuan yang diperlukan untuk
mendapatkan

solusi

problema,

dapat

diterjemahkan

ke

dalam

bahasa

pemrograman dan dapat disimpan. Harus dirancang agar fakta-fakta dan


pengetahuan lain yang terkandungdi dalamnya dapat digunakan untuk penalaran.

Sistem Pakar

184

3.1.7. Model Representasi Pengetahuan


Pengetahuan dapat direpresentasikan dalam bentuk yang sederhana atau
kompleks, tergantung dari masalahnya. Beberapa model representasi pengetahuan
yang penting, adalah:
1. Logika (logic)
Logika merupakan suatu pengkajian ilmiah tentang serangkaian penalaran, sistem
kaidah, dan prosedur yang membantu proses penalaran. Logika merupakan
representasi pengetahuan yang paling tua. Bentuk logika komputasional ada 2
macam, yaitu:
a) Logika Proporsional atau Kalkulus
Logika proporsional merupakan logika simbolik untuk memanipulasi proposisi.
Proposisi merupakan pernyataan yang dapat bernilai benar atau salah yang
dihubungkan dengan operator logika diantaranya operator And (dan), Or (atau),
Not (tidak), Impilikasi (if..then), Bikondisional (if and only if). Contohnya: Jika
hujan turun sekarang maka saya tidak akan ke pasar, dapat dituliskan dalam
bentuk: ( p => q)
b) Logika Predikat
Logika predikat adalah suatu logika yang seluruhnya menggunakan konsep dan
kaidah proposional yang sama dengan rinci. Suatu proposisi atau premis dibagi
menjadi dua bagian, yaitu: argumen (objek) dan predikat (keterangan). Predikat
adalah keterangan yang membuat argument dan predikat. Contohnya: Mobil
berada dalam garasi, dapat dinyatakan menjadi Di dalam (mobil,garasi). Di
dalam = keterangan, mobil = argumen, garasi = argumen.
2. Jaringan semantik (semantic nets)
Representasi jaringan semantic merupakan penggambaran grafis dari
pengetahuan yang memperlihatkan hubungan hirarkis dari objek-objek yang
terdiri

atas

simpul

(node)

dan

penghubung

(link).

Contohnya

Merepresentasikan pernyataan bahwa semua komputer merupakan alat


elektornik, semua PC merupakan komputer, dan semua komputer memiliki
monitor. Dari pernyataan tersebut dapat diketahui bahwa semua PC memiliki

Sistem Pakar

185

monitor dan hanya sebagian alat elektronik yang memiliki monitor, hal ini
dapat dilihat pada gambar 3.2 berikut ini:

Gambar 3.2 Representasi Jaringan Semantik


4. Object-Atributte-Value (OAV)
Object dapat berupa bentuk fisik atau konsep, Attribute adalah karakteristik
atau sifat dari object tersebut, Value (nilai) - besaran spesifik dari attribute
tersebut yang berupa numeric, string atau boolean. Contoh: Object: mangga ;
Attribute: berbiji ; Value: tungggal.
4. Bingkai (frame)
Bingkai berupa ruang (slots) yang berisi atribut untuk mendeskripsikan
pengetahuan yang berupa kejadian. Binkai memuat deskripsi sebuah objek
dengan menggunakan tabulasi informasi yang berhubungan dengan objek.
Contoh: Bingkai penyakit yang dilihat pada gambar 3.3 berikut ini:

Gambar 3.3. Bingaki Penyakit


5. Kaidah produksi (production rule).

Sistem Pakar

186

Kaidah menyediakan cara formal untuk merepresentasikan rekomendasi,


arahan, atau strategi. Kaidah produksi dituliskan dalam bentuk jika-maka (ifthen)

yang

menghubungkan

anteseden

dengan

konsekuensi

yang

diakibatkannya. Berbagai struktur kaidah if-then ynag menghubungkan obyek


atau atribut adalah sebagai berikut :
JIKA premis MAKA konklusi
JIKA masukan MAKA keluaran
JIKA kondisi MAKA tindakan
JIKA anteseden MAKA konsekuen
JIKA data MAKA hasil
JIKA tindakan MAKA tujuan

4.1.8. Inferensi
Inferensi merupakan proses untuk menghasilkan informasi dari fakta yang
diketahui atau diasumsikan. Inferensi adalah konklusi logis (logical conclusion)
atau implikasi berdasarkan informasi yang tersedia dalam hal ini akan digunakan
metode inferensi dalam pengambilan kesimpulan. Ada dua metode inferensi yang
penting dalam sistem pakar untuk menarik kesimpulan, yaitu:
1. Runut Maju (Forward Chaining)
Pelacakan ke depan adalah pendekatan yang dimotori data (data-driven). Dalam
pendekatan ini pelacakan dimulai dari informasi masukan dan selanjutnya
mencoba menggambarkan kesimpulan. Pelacakan ke depan mencari fakta yang
sesuai dengan bagian IF dari aturan IF-THEN. Gambar 3.4 menunjukkan proses
Forward Chaining.

Sistem Pakar

187

Gambar 3.4. Proses Forward Chaining


2. Runut Balik ( Backward Chaining )
Runut balik adalah pendekatan yang dimotori tujuan (goal-driven). Dalam
pendekatan ini pelacakan dimulai dari tujuan, selanjutnya dicari aturan yang
memiliki tujuan tersebut untuk kesimpulannya. Selanjutnya proses pelacakan
menggunakan premis untuk aturan tersebut sebagai tujuan baru dan mencari
aturan lain dengan tujuan baru sebagai kesimpulannya. Selanjutnya, proses
pelacakan menggunakan premis untuk aturan tersebut sebagai tujuan baru dan
mencari aturan lain dengan tujuan baru sebagai kesimpulannya. Proses berlanjut
sampai semua kemungkinan ditemukan. Gambar 3.5 menunjukkan proses
Backward Chaining.

Gambar 3.5. Backward Chaining (Runut Balik)

4.2. Metode Bayes


Classification adalah proses untuk menemukan model atau fungsi yang
menjelaskan atau membedakan konsep atau kelas data, dengan tujuan untuk dapat
memperkirakan kelas dari suatu objek yang labelnya tidak diketahui. Model itu
sendiri bias berupa aturan jika- -maka. Dalam teknik classification terdapat
beberapa algoritma yang bias digunakan antara lain teoremabayes, decisiontree,
adaptive nave bayes, logistic regression dan support vectormachine.

Proses

classification biasanya dibagi menjadi dua fase: learning dan test. Pada fase
learning, sebagian data yang telah diketahui kelas datanya diumpankan untuk
membentuk model perkiraan. Kemudian pada fase test model yang sudah
terbentuk diuji dengan sebagian data lainnya untuk mengetahui akurasi dari model

Sistem Pakar

188

tersebut. Bila akurasinya mencukupi model ini dapat dipakai untuk prediksi kelas
data yang belum diketahui.
Metode Bayes dikembangkan oleh Reverend Thomas Bayes apda abad ke18 dan dikembangkan secara luas dalam statistic inferensial. Aplikasi banyak
untuk Decission Support System dan Rehability. Bayesian Classification
didasarkan pada Teorema Bayesian. Konsep dasar teori bayes pada dasarnya
adalah peluang bersyarat P(H|X). Dimana dalam Bayesian H adalah posterior dan
X adalah prior. Prior adalah pengetahuan kita tentang karakteristik suatu
parameter (bias dibaca sebagai pengalaman dimasa lalu atas suatu parameter atau
juga bias berdasarkan teori), sedangkan posterior adalah karakteristik yang akan
kita duga pada kejadian yang akan datang.
Teorema Bayesian berguna untuk melakukan kalkulasi probabilitas
posterior, P(H|X), dari P(H),P(X) dan P(X|H).Teori Bayesa dalah sebagai berikut:
Misalnya peristiwa-peristiwa A1, A2, , Ak membentuk suatu partisi di dalam
ruang sampel S sedemikian hingga P(Ai) > 0 dengan i bernilai 1, 2, , k dan B
sembarang peristiwa sedemikian hingga P(B) > 0, maka

( | )=

( ) ( | )
( ) ( | )

Teorema Bayes memberikan aturan sederhana untuk menghitung probabilitas


bersyarat peristiwa jika telah terjadi, yaitu jika masing-masing probabilitas tak
bersyarat dan probabilitas bersyarat dengan diketahui (Soejoeti dan Soebanar,
1988).

3.2.1. Prior
Proporsi p mempunyai rentang nilai 0 sampai 1. Dalam paradigma
Bayesian, seseorang mengungkapkan suatu keyakinan dalam sebuah proporsi
populasi sebelum mengobservasi data melalui densitas probabilitas pada satu unit
interval. Densitas probabilitas ini yang disebut sebagai densitas prior selama hal

Sistem Pakar

189

tersebut merefleksikan kepercayaan subjektif seseorang. Box dan Tiao (1973)


membagi prior menjadi 2 kelompok berdasarkan fungsi Likelihoodnya :
1. Berkaitan dengan bentuk distribusi hasil identifikasi pola datanya
a. Prior konjugat, mengacu pada acuan analisis model terutama dalam
pembentukan fungsi likelihoodnya sehingga dalam penentuan prior
konjugat selalu dipikirkan mengenai penentuan pola distribusi
prior yang mempunyai bentuk konjugat dengan fungsi densitas
peluang pembangun likelihoodnya.
b. Prior

non-konjugat,

pemberian

prior

pada

model

tidak

mempertimbangkan pola pembentuk fungsi likelihoodnya.


2. Berkaitan dengan penentuan masing-masing parameter pada pola distribusi
prior tersebut.
a. Prior informatif mengacu pada pemberian parameter dari distribusi
prior yang telah dipilih baik distribusi prior konjugat atau tidak.
Pemberian nilai parameter pada distribusi prior ini akan sangat
mempengaruhi bentuk distribusi posterior yang akan didapatkan
pada informasi data yang diperoleh.
b. Prior non-informatif, apabila pemilihan distribusi priornya tidak
didasarkan pada informasi yang ada sebelumnya. Apabila
pengetahuan tentang priornya sangat lemah, maka bisa digunakan
prior berdistribusi normal dengan mean nol dan varian besar. Efek
dari penggunaan prior dengan mean nol adalah estimasi
parameternya dihaluskan menuju nol. Tetapi, karena pemulusan ini
dilakukan oleh varian, maka pemulusan tersebut bisa diturunkan
dengan meningkatkan varian (Galindo-Garre dan Vermunt, 2004).

3.2.2. Posterior
Probabilitas bersyarat B apabila A diketahui dirumuskan sebagai :
( | )=

Sistem Pakar

190

( )
( )

Probabilitas bayes merupakan salah satu cara untuk mengatasi ketidakpastian data
dengan

cara

menggnkan

formula

bayes

yangdinyatakan

dengan

( | ) ( )
( )

( | )=

Dimana

P(H|E)=probabilitas hipotesis H benar jika evidence E


P(E|H)=probabilitas munculnya evidence E, jika diketahui hipotesis H benar
P(H)=probabilitas hipotesis E tanpa memandang evidence apapun
P(E)=probabilitas evidence E
Secara umum teorema bayes dengan E kejadian dan hipotesis H dapat dituliskan
dalam bentuk
(

| )=

( |

( |

( |

( )
(

) (

) (

) (
( )

)
)

Setelah dilakukan pengujian terhadap hipotesis, kemudian muncul lebih dari satu
evidence. Maka persamaannya menjadi

Dimana

( | , )= ( | )

( | , )
( | )

E=evidence lama
E=evidence baru
P(H|E,e)=probabilitas hipotesis H benar jika muncul evidence baru E dari
evidence lama e
P(H|E)=probabilitas hipotesis H benar jika diberikan evidence E
P(e|E,H)=kaitan antara e dan E jika hipotesis H benar
P(e|E)=kaitan antara e dan E tanpa memandang hipotesis apapun
(Sri Winarti, 2008)

I.

Probabilitas Bersyarat

Sistem Pakar

191

( )
( )

( | )=

Probabilitas B di dalam A adalah probabilitas interseksi B dan A dari probabilitas


A, atau dengan bahasa lain P(B|A) adalah presentase banyaknya B didalam A
Contoh
Tabel 3.1. Data Penerimaan beasiswa
Nim

IPK

Kehadiran

Attitude

Dapat
Beasiswa

001

Bagus

Tinggi

Baik

Ya

002

Bagus

Tinggi

Baik

Ya

003

Cukup

Sedang

Baik

Tidak

004

Bagus

Tinggi

Kurang

Ya

005

Cukup

Sedang

Kurang

Tidak

006

Bagus

Tinggi

Baik

Ya

1. Banyaknya data dapat beasiswa=ya adalah 4 dari 6 data, maka dituliskan


P(beasiswa=Ya) = 4/6,

Banyaknya data IPK=bagus dan dapat

beasiswa=ya adalah 4 dari 6 data, maka dituliskan P(IPK=bagus dan


beasiswa=ya) = 4/6.
(

)=

/
/

=1

2. Banyaknya data dapat beasiswa=ya adalah 4 dari 6 data, maka dituliskan


P(beasiswa=Ya) = 4/6, Banyaknya data IPK=bagus dan attitude=baik dan
dapat beasiswa=ya adalah 4 dari 6 data, maka dituliskan P(IPK=bagus dan
beasiswa=ya) = 3/6.
(
2.

)=

/
/

=3/4

Probabilitas Bayesian
Menurut Sri Hartati dan Iswanti Sari (2008, h. 108), Probabilitas Bayesian

adalah salah satu cara untuk mengatasi ketidakpastian dengan menggunakan


Formula Bayes. Yang dinyatakan sebagai berikut :

Sistem Pakar

192

( | )=

( | ) ( )
( )

..................(1)

Di mana

P(H | E) : probabilitas hipotesa H jika terdapat evidence E


P(E | H) : probabilitas munculnya evidence E jika diketahui hipotesis H
P(H)

: probabilitas hipotesa H tanpa memandang evidance apapun

P(E)

: probabilitas evidance E
Penerapan teorema Bayes untuk mengatasi ketidakpastian, jika muncul

lebih dari satu evidence dituliskan sebagai barikut :


( | , )= ( | )

( | , )
( | )

...........(2)

Di mana
e

: evidence lama

: evidence baru

P(H|E,e)

: probabilitas adanya hipotesa H, jika muncul evidence baru E dari


evidence lama e

P(e|E,H)

: probabilitas kaitan antara e dan E tanpa jika hipotesa H benar

P(e | E)

: probabilitas kaitan antara e dan E tanpa memandang hipotesa


apapun

P(H | E)

Sistem Pakar

: probabilitas hipotesa H jika terdapat evidence E

193

3.2.3. Penerapan Metode Bayes


Berdasarkan jurnal Relita Buaton dan Sri Astuti dengn judul Perancangan Sistem
Pakar Tes Kepribadian Dengan Menggunakan Metode Bayes. Dengan tujuan dan
manfaat penelitian adalah :
1. Penerapan

teorema

Bayes

untuk

mengatasi

ketidakpastian

type

kepribadian
2. Menentukan peluang terjadinya peristiwa antar type kepribadian
Sedangkan manfaat penelitian ini adalah :
1. Untuk memudahkan seseorang dalam mengenali tipe kepribadianya.
2. Membantu kesulitan seseorang dalam mengetahui kelemahan dan
kekurangan yang dimilikinya.
I.

Analisa Sistem
Prinsip kerja sistem pakar Tes Kepribadian MBTI adalah sebagai berikut :

1. Membuat basis pengetahuan yang mampu menampung kriteria - kriteria


Kepribadian MBTI.
2. Membangun basis pengetahuan untuk menganalisa suatu masalah tertentu
yang selanjutnya akan mencari tipe kepribadian apa yang dimiliki oleh
client dan saran pengembangan yang diberikan.
3. Merancang antarmuka pemakai yang dapat menjangkau semua kebutuhan
client tanpa mempersulit atau membingungkan user dalam penggunaan
sistem.
II.

Basis Pengetahuan
Basis pengetahuan merupakan representasi dari proses akuisi pengetahuan

dimana dalam akuisisi pengetahuan ini dilakukan pengumpulan data data


pengetahuan yang menjadi satu masalah dari seorang pakar dan dijadikan
dokumentasi untuk diolah dan diorganisasikan menjadi pengetahuan. Pengetahuan
yang diperoleh harus direpresentasikan menjadi basis pengetahuan yang
selanjutnya didokumentasikan, diorganisasikan dan digambarkan dalam bentuk
rancangan lain menjadi bentuk yang dapat menunjukan suatu kecerdasan.
Pengetahuan yang diperoleh direpresentasikan kedalam metode dan kaidah proses
pemecahan masalah. Dalam memecahkan permasalahan metode yang digunakan

System Pendukung Keputusan

152

adalah Bayes, proses awal yang dilakukan dalam pembentukan kepakaran adalah
pembentukan tabel keputusan, lalu pengkonversian tabel dan hasil kesimpulan
dimasukan kedalam metode yaitu Bayes untuk mendapatkan solusi dari
kesimpulan yang diperoleh.
Pembentukan

tabel

keputusan

merupakan

suatu

cara

untuk

mendokumentasikan pengetahuan dimana tabel keputusan ini mendeskripsikan


pengetahuan. Pada bagian ini diberikan contoh proses akuisisi dan representasi
pengetahuan suatu perangkat dalam hal ini adalah karakter karakter dan
kepribadian, seperti pada tabel berikut :

Tabel 3.2. Tabel Keputusan Kepribadian Ekstravert dan Introvert


NO

X1

X2

X3

X4

X5

X6

X7

X8

X9

X10

Tipe

10

Kepribadian

Tidak Ya

INTROVERT

Tidak Ya

Tidak Tidak Tidak Tidak Tidak Tidak Tidak Ya

Tidak Tidak INTROVERT

Tidak Ya

Tidak Tidak Ya

Tidak Tidak Ya

Tidak Tidak EXTRAVERT

Tidak Ya

Tidak Tidak Ya

Ya

Tidak Ya

Ya

Tidak Tidak Tidak Tidak Tidak EXTRAVERT

Tidak Tidak Tidak Ya

Tidak Ya

Tidak Tidak Ya

Tidak Tidak Tidak Tidak Tidak EXTRAVERT

Tidak Ya

Ya

Tidak Tidak Tidak Tidak Tidak INTROVERT

Tidak Ya

Tidak Tidak Ya

Tidak Tidak Ya

Ya

10

Tidak Ya

Tidak Ya

Tidak Tidak Ya

Tidak Ya

EXTRAVERT

11

Ya

Ya

Ya

Ya

Ya

INTROVERT

12

Ya

Ya

Tidak Tidak Ya

13

Tidak Ya

Tidak Tidak Tidak Tidak Tidak Tidak Tidak Tidak INTROVERT

14

Tidak Ya

Ya

Tidak Tidak Tidak Tidak Ya

Ya

Tidak EXTRAVERT

15

Ya

Ya

Tidak Ya

Ya

Ya

Ya

Tidak Tidak Tidak Ya

Tidak Ya

Ya

Ya

Tidak Tidak Tidak INTROVERT

Tidak Tidak Tidak Tidak Tidak Tidak INTROVERT

Ya

Ya

Tidak Ya

System Pendukung Keputusan

Tidak Ya

Ya

Ya

Tidak Tidak Ya

Tidak Tidak Ya

153

Tidak INTROVERT

Ya

Tidak Tidak EXTRAVERT

EXTRAVERT

16

Tidak Ya

17

Tidak Tidak Ya

18

Tidak Ya

Tidak Tidak Ya

Ya

19

Ya

Ya

Tidak Ya

20

Tidak Tidak Tidak Tidak Ya

Tidak Tidak Tidak Ya

21

Tidak Tidak Ya

Tidak Tidak Tidak Tidak Tidak INTROVERT

22

Ya

23

Tidak Ya

Ya

24

Ya

Tidak Tidak Ya

25

Tidak Ya

Tidak Tidak Tidak Tidak Ya

26

Tidak Ya

Tidak Ya

27

Tidak Tidak Ya

28

Tidak Ya

Tidak Tidak Ya

29

Ya

Ya

Tidak Tidak Tidak Ya

30

Ya

Ya

Ya

Ya

31

Tidak Ya

Ya

Tidak Ya

32

Tidak Ya

Tidak Tidak Ya

33

Tidak Tidak Ya

Tidak Tidak Tidak Ya

34

Ya

Tidak Ya

Tidak Ya

EXTRAVERT

35

Tidak Tidak Tidak Tidak Tidak Tidak Tidak Tidak Tidak Ya

INTROVERT

36

Ya

37

Tidak Ya

Ya

Ya

Ya

Tidak Ya

38

Tidak Ya

Tidak Ya

Ya

Ya

Tidak Tidak Ya

39

Ya

Tidak Ya

Tidak Ya

Ya

Tidak Ya

Tidak Tidak INTROVERT

40

Ya

Ya

Ya

Tidak Ya

Ya

Tidak EXTRAVERT

41

Tidak Ya

Tidak Tidak Tidak Tidak Tidak Tidak Ya

Tidak INTROVERT

42

Tidak Tidak Tidak Ya

Tidak Ya

43

Tidak Tidak Tidak Ya

Tidak Tidak Tidak Tidak Tidak Tidak INTROVERT

44

Tidak Ya

Ya

45

Ya

Ya

Ya

Ya

Ya

Ya

Tidak Tidak Tidak Tidak Ya


Tidak Tidak Ya

Tidak Ya

Tidak Ya

Tidak Ya

Ya

Tidak Ya

Tidak Ya

Ya

Tidak Tidak Tidak Ya

Tidak Ya

Ya

Ya

Ya

Ya

Ya

INTROVERT

Tidak Ya

Ya

INTROVERT

Tidak Ya

Tidak Tidak Ya

Tidak INTROVERT

Tidak EXTRAVERT

Tidak Ya

EXTRAVERT

Tidak Tidak Tidak INTROVERT

Tidak Tidak Tidak Ya

EXTRAVERT

Tidak Tidak Tidak Tidak Tidak INTROVERT


Ya

Tidak Tidak Tidak Ya


Tidak Ya

Tidak Ya
Ya

Tidak Tidak INTROVERT

Tidak Tidak Ya

Tidak Tidak Tidak Ya


Ya

Tidak INTROVERT

Tidak INTROVERT

Tidak Tidak EXTRAVERT


Tidak EXTRAVERT

Tidak Tidak Ya

Tidak Tidak Ya

154

Tidak EXTRAVERT

Tidak Tidak INTROVERT

Tidak Ya

Tidak Tidak Ya

Ya

EXTRAVERT

Tidak Tidak Tidak EXTRAVERT

Tidak Tidak Ya

Tidak Tidak Tidak Tidak Ya

System Pendukung Keputusan

Tidak Tidak Tidak EXTRAVERT

Tidak Ya

Ya

Tidak EXTRAVERT

Tidak Tidak Tidak Tidak Tidak INTROVERT

Tidak Ya

Tidak Ya

Ya

Ya

INTROVERT

Tidak Tidak EXTRAVERT

Tidak Tidak Tidak Tidak EXTRAVERT

46

Ya

Ya

Ya

Ya

Tidak Tidak Ya

47

Ya

Ya

Ya

Tidak Tidak Tidak Tidak Ya

48

Tidak Ya

Tidak Ya

Tidak Ya

49

Tidak Ya

Tidak Ya

Tidak Ya

50

Tidak Ya

Ya

Tidak Ya

Tidak Tidak Tidak INTROVERT


Ya

Tidak EXTRAVERT

Tidak Ya

Ya

Tidak INTROVERT

Tidak Ya

Tidak Tidak EXTRAVERT

Tidak Tidak Tidak Tidak Tidak INTROVERT

Asumsi :
Y

: Tipe Kepribadian

X1

: Senang Berinteraksi

X2

: Senang Berkelompok

X3

: Bertindak atau bicara dulu baru berfikir

X4

: Penuh energi

X5

: Fokus keluar

X6

: Cerewet

X7

: Senang variasa dan suasana hidup

X8

: Terbuka

X9

: Berfikir sambil bicara

X10

: Senang diskusi

Fakta Menunjukan
P (Y = Ekstravert) = 23/50 P (Y = Introvert) = 27/50
Table 3.3 Tabel Keputusan Kepribadian Sensorik vs Kepribadian Intuitif
NO

X1
1

X2
2

X3
3

X4

X5

X6
6

X7

X8

X9

X10

10

Tipe
Kepribadian

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

INTUITIF

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Ya

Tidak

Tidak

SENSORIK

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

INTUITIF

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Ya

Ya

Ya

SENSORIK

Tidak

Tidak

Ya

Ya

Tidak

Ya

Ya

Ya

Tidak

Tidak

INTUITIF

Ya

Tidak

Tidak

Tidak

Ya

Ya

Ya

Ya

Tidak

Ya

SENSORIK

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

INTUITIF

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Ya

Ya

Tidak

SENSORIK

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Ya

Tidak

SENSORIK

System Pendukung Keputusan

155

10

Ya

Ya

Ya

Ya

Tidak

Ya

Ya

Ya

Tidak

Tidak

INTUITIF

11

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Tidak

Ya

SENSORIK

12

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Ya

SENSORIK

13

Tidak

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

INTUITIF

14

Ya

Ya

Ya

Ya

Tidak

Ya

Ya

Ya

Tidak

Ya

SENSORIK

15

Tidak

Tidak

Tidak

Ya

Tidak

Ya

Tidak

Ya

Tidak

Ya

SENSORIK

16

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Ya

SENSORIK

17

Tidak

Ya

Tidak

Tidak

Tidak

Ya

Tidak

Ya

Tidak

Tidak

INTUITIF

18

Ya

Ya

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

Ya

SENSORIK

19

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

INTUITIF

20

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

INTUITIF

21

Tidak

Ya

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

SENSORIK

22

Tidak

Ya

Ya

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Tidak

SENSORIK

23

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

SENSORIK

24

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

INTUITIF

25

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

SENSORIK

26

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

INTUITIF

27

Tidak

Ya

Ya

Ya

Tidak

Ya

Tidak

Ya

Tidak

Tidak

SENSORIK

28

Tidak

Ya

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

INTUITIF

29

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

INTUITIF

30

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

Ya

SENSORIK

31

Tidak

Ya

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

INTUITIF

32

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

INTUITIF

33

Tidak

Ya

Tidak

Ya

Ya

Ya

Tidak

Ya

Tidak

Ya

SENSORIK

34

Ya

Ya

Ya

Tidak

Tidak

Ya

Ya

Ya

Tidak

Ya

SENSORIK

35

Ya

Tidak

Tidak

Ya

Tidak

Ya

Ya

Ya

Tidak

Ya

INTUITIF

36

Tidak

Ya

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Ya

SENSORIK

37

Tidak

Ya

Tidak

Ya

Ya

Tidak

Ya

Ya

Tidak

Ya

INTUITIF

38

Tidak

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

SENSORIK

39

Tidak

Ya

Tidak

Ya

Tidak

Ya

Tidak

Ya

Tidak

Tidak

INTUITIF

40

Tidak

Ya

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

Tidak

SENSORIK

41

Ya

Tidak

Tidak

Ya

Tidak

Ya

Ya

Ya

Tidak

Ya

INTUITIF

42

Tidak

Ya

Tidak

Ya

Tidak

Ya

Ya

Ya

Tidak

Tidak

SENSORIK

43

Ya

Tidak

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

SENSORIK

44

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Ya

Tidak

Tidak

INTUITIF

45

Tidak

Ya

Tidak

Tidak

Ya

Ya

Tidak

Ya

Tidak

Ya

SENSORIK

System Pendukung Keputusan

156

46

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Ya

Ya

Ya

INTUITIF

47

Ya

Ya

Tidak

Ya

Ya

Ya

Ya

Ya

Ya

Ya

SENSORIK

48

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Tidak

Tidak

SENSORIK

49

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

INTUITIF

50

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

SENSORIK

Asumsi :
Y

: Tipe Kepribadian

X1

: Lebih suka pada fakta-fakta dan informasi konkrit

X2

: Lebih tertarik pada hal-hal yang bersifat aktual

X3

: Lebih tertarik pada hal-hal khusus

X4

: Lebih praktis dan realistik

X5

: Fokus pada hari ini

X6

: Lebih suka pada nilai-nilai umum

X7

: Bersifat pragmatis

X8

: Percaya pada pengalaman masa lalu

X9

: Cenderung ingin sesuatu dengan apa adanya

X10

: Tidak suka berandai-andai tentang hal-hal yang belum pasti

P (Y = Sensorik) = 28/50 P (Y = Intuitif) = 22/50

Table 3.4. Keputusan Kepribadian Thinking vs Kepribadian Feeling

NO

X1
1

X2
2

X3

X4

X5

X6

X7

X8

X9
9

X10
10

Tipe
Kepribadian

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

FEELING

Ya

Ya

Ya

Tidak

Ya

Ya

Tidak

Tidak

Ya

Tidak

FEELING

Tidak

Ya

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

THINKING

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

FEELING

Tidak

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Ya

Ya

FEELING

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

THINKING

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

FEELING

Ya

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

THINKING

System Pendukung Keputusan

157

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Ya

Tidak

Ya

Tidak

FEELING

10

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

FEELING

11

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

THINKING

12

Tidak

Tidak

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

Ya

FEELING

13

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

FEELING

14

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

FEELING

15

Tidak

Ya

Ya

Ya

Tidak

Tidak

Tidak

Ya

Ya

Ya

THINKING

16

Tidak

Ya

Ya

Tidak

Ya

Tidak

Ya

Ya

Tidak

Tidak

FEELING

17

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Ya

THINKING

18

Ya

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Ya

Ya

Tidak

FEELING

19

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

THINKING

20

Ya

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

FEELING

21

Tidak

Ya

Ya

Tidak

Tidak

Ya

Ya

Tidak

Ya

Tidak

FEELING

22

Tidak

Ya

Ya

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

THINKING

23

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

FEELING

24

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Ya

Tidak

Ya

Tidak

THINKING

25

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Ya

FEELING

26

Tidak

Ya

Ya

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

THINKING

27

Tidak

Tidak

Ya

Tidak

Ya

Tidak

Ya

Tidak

Ya

Tidak

THINKING

28

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

FEELING

29

Ya

Tidak

Tidak

Tidak

Ya

Ya

Tidak

Ya

Ya

Tidak

THINKING

30

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Ya

FEELING

31

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Tidak

THINKING

32

Tidak

Ya

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

FEELING

33

Tidak

Ya

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

FEELING

34

Ya

Ya

Ya

Tidak

Tidak

Ya

Ya

Tidak

Ya

Tidak

FEELING

35

Tidak

Ya

Ya

Ya

Tidak

Ya

Tidak

Ya

Tidak

Ya

THINKING

36

Tidak

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Ya

Ya

FEELING

37

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

FEELING

38

Ya

Tidak

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Ya

THINKING

39

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

FEELING

40

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Ya

FEELING

41

Tidak

Ya

Ya

Tidak

Ya

Ya

Tidak

Ya

Tidak

Ya

THINKING

42

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Ya

FEELING

43

Tidak

Ya

Ya

Tidak

Ya

Ya

Tidak

Ya

Tidak

Tidak

THINKING

44

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

FEELING

System Pendukung Keputusan

158

45

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Ya

THINKING

46

Ya

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

FEELING

47

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Ya

THINKING

48

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

FEELING

49

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

FEELING

50

Ya

Tidak

Ya

Ya

Ya

Tidak

Ya

Ya

Tidak

Ya

THINKING

Asumsi :
Y

: Tipe Kepribadian

X1

: Suka menganalisis masalah

X2

: objektif dan meyakinkan dengan akalnya

X3

: Terus terang

X4

: Nilai-nilai keahlian

X5

: Menentukan semua hal pakai kepalanya

X6

: Nilai-nilai keadilan

X7

: Tidak sensitif

X8

: Pintar mengkritik orang

X9

: Jarang memasukan kedalam hati

X10

: Senang mengkritik atau mengkoreksi orang dan blak-blakan

P (Y = Thinking) = 20/50 P (Y = Feeling) = 30/50


Table 3.5. Keputusan Kepribadian Judging vs Kepribadian Perceiving
X1

X2

X3

X4

X5

X6

X7

X8

X9

X10

Tipe

10

Kepribadian

Ya

Ya

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

PERCEIVING

Ya

Tidak

Tidak

Ya

Ya

Tidak

Tidak

Ya

Tidak

Tidak

JUDGING

Tidak

Tidak

Tidak

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

PERCEIVING

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

JUDGING

Tidak

Ya

Ya

Ya

Ya

Tidak

Ya

Tidak

Ya

Ya

JUDGING

Ya

Tidak

Tidak

Tidak

Ya

Tidak

Ya

Tidak

Tidak

Ya

PERCEIVING

Ya

Tidak

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

JUDGING

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

JUDGING

NO

System Pendukung Keputusan

159

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

JUDGING

10

Tidak

Ya

Ya

Tidak

Ya

Tidak

Ya

Ya

Tidak

Tidak

PERCEIVING

11

Ya

Ya

Tidak

Ya

Tidak

Ya

Ya

Ya

Tidak

Ya

JUDGING

12

Ya

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

Ya

Ya

PERCEIVING

13

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Ya

JUDGING

14

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

Ya

Ya

Tidak

PERCEIVING

15

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Ya

Tidak

Tidak

JUDGING

16

Ya

Tidak

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

JUDGING

17

Ya

Tidak

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Ya

JUDGING

18

Ya

Tidak

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

PERCEIVING

19

Tidak

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

Tidak

Tidak

JUDGING

20

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

Tidak

JUDGING

21

Ya

Ya

Tidak

Ya

Ya

Tidak

Tidak

Ya

Ya

Tidak

PERCEIVING

22

Ya

Ya

Ya

Ya

Tidak

Tidak

Ya

Ya

Tidak

Ya

PERCEIVING

23

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Ya

JUDGING

24

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Tidak

PERCEIVING

25

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

JUDGING

26

Ya

Tidak

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Tidak

PERCEIVING

27

Ya

Ya

Ya

Ya

Tidak

Ya

Ya

Ya

Ya

Tidak

JUDGING

28

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

JUDGING

29

Ya

Tidak

Ya

Ya

Ya

Ya

Tidak

Tidak

Tidak

Ya

JUDGING

30

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

PERCEIVING

31

Ya

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

Ya

Ya

Tidak

JUDGING

32

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

JUDGING

33

Ya

Ya

Tidak

Ya

Tidak

Ya

Ya

Ya

Ya

Ya

PERCEIVING

34

Ya

Ya

Ya

Ya

Tidak

Tidak

Ya

Ya

Ya

Tidak

JUDGING

35

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Ya

Tidak

JUDGING

36

Tidak

Ya

Tidak

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

PERCEIVING

37

Ya

Ya

Ya

Ya

Tidak

Ya

Ya

Tidak

Tidak

Tidak

JUDGING

38

Ya

Ya

Tidak

Tidak

Tidak

Tidak

Tidak

Ya

Tidak

Tidak

JUDGING

39

Tidak

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Ya

PERCEIVING

40

Tidak

Ya

Tidak

Ya

Tidak

Ya

Ya

Ya

Ya

Tidak

JUDGING

41

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

JUDGING

42

Tidak

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Ya

PERCEIVING

43

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

Tidak

JUDGING

44

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Tidak

PERCEIVING

System Pendukung Keputusan

160

45

Ya

Ya

Ya

Tidak

Ya

Tidak

Tidak

Ya

Tidak

Ya

PERCEIVING

46

Ya

Tidak

Ya

Ya

Tidak

Ya

Ya

Ya

Ya

Tidak

JUDGING

47

Tidak

Tidak

Ya

Ya

Ya

Tidak

Tidak

Ya

Ya

Ya

PERCEIVING

48

Tidak

Ya

Tidak

Tidak

Tidak

Tidak

Ya

Ya

Tidak

Tidak

JUDGING

49

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

Ya

JUDGING

50

Ya

Ya

Ya

Tidak

Ya

Tidak

Ya

Tidak

Tidak

Ya

PERCEIVING

Asumsi :
Y

: Tipe Kepribadian

X1

: Mencari ketetapan

X2

: Percaya pada struktur

X3

: Rencanakan semua hal

X4

: Senang ketertiban

X5

: Kerja dulu main nanti

X6

: Senang menyelesaikan pekerjaan

X7

: Berorientasi pada tujuan

X8

: Lebih Rapi

X9

: Seang segalanya teratur

X10

: Tepat waktu

P (Y = Judging) = 30/50 P (Y = Perceiving) = 20/50


III.

Pembahasan
Misalkan untuk mengetahui tipe kepribadian dengan karakter, X1 = ya, X2

= Ya, X3 = Ya, X4 = Ya, X5 = Ya, X6 = Tidak, X7 = Ya, X8 = Tidak, X9 = Tidak,


X10 = Tidak, maka tipe kepribadian apa yang dimiliki oleh client berdasarkan
basis pengetahuan pada tabel 3.2
Fakta :
(

| =

| =

| =

9
23
6
)=
27
21
)=
23

System Pendukung Keputusan

)=

161

| =

| =

(
(
(
(

=
(

=
=

(
(
(

16
27
11
)=
23
10
)=
27
9
)=
23
6
)=
27
15
)=
23
14
)=
27
)=

| =
| =
| =
| =
| =

| =

)=

| =

| =

| =
| =

| =
| =

| =

19
27
4
)=
23
7
)=
27
10
)=
23
18
=
27
15
)
23
18
)=
27
18
)
23
)=

| =

14
23

| =

)=

21
27

HMAP dari keadaan ini dapat dihitung dengan :


Perhitungan Nilai Ekstravert (E)
P ( X1 = Ya, X2 = Ya, X3 = Ya, X4 = Ya, X5 = Ya, X6 = Tidak, X7 = Ya, X8 =
Tidak, X9 = Tidak, X10 = Tidak | Y = Ekstravert)
= { P (X1 = Ya | Y = Ekstravert) . P (X2 = Ya | Y = Ekstravert) . P (X3 = Ya | Y =
Ekstravert) . P (X4 = Ya | Y = Ekstravert) . P (X5 = Ya | Y = Ekstravert) . P (X6 =

System Pendukung Keputusan

162

Tidak | Y = Ekstravert) . P (X7 = Ya | Y = Ekstravert) . P (X8 = Tidak | Y =


Ekstravert) . P (X9 = Tidak | Y = Ekstravert) . P (X10 = Tidak | Y = Ekstravert) } .
P ( Y = Ekstravert)
= { 9 23 . (21 23) . (11 23) . (9 23) . (15 23) . (14 23) . (4 23) . (10 23)
. (15 23) . (17 23) } . (23 50) = 0.391 . 0.913 . 0.478 . 0.391 . 0.652 . 0.608 .
0.173 . 0.434 . 0.652 . 0.739 . 0.5
= 0.00095
Perhitungan Nilai Introvert (I)
P ( X1 = Ya, X2 = Ya, X3 = Ya, X4 = Ya, X5 = Ya, X6 = Tidak, X7 = Ya, X8 =
Tidak, X9 = Tidak, X10 = Tidak | Y = Introvert)
= { P (X1 = Ya | Y = Introvert) . P (X2 = Ya | Y = Introvert) . P (X3 = Ya | Y =
Introvert) . P (X4 = Ya | Y = Introvert) . P (X5 = Ya | Y = Introvert) . P (X6 =
Tidak | Y = Introvert) . P (X7 = Ya | Y = Introvert) . P (X8 = Tidak | Y = Introvert)
. P (X9 = Tidak | Y = Introvert) . P (X10 = Tidak | Y = Introvert) } . P ( Y =
Introvert)
= { 6 27 . (16 27) . (10 27) . (6 27) . (14 27) . (19 27) . (7 27) . (18 27)
. (18 27) . (21 27) } . (27 50) = 0.222 . 0.592 . 0.370 . 0.222 . 0.518 . 0.703 .
0.259 . 0.666 . 0.666 . 0.777 . 0.54
= 0.00035
Karena nilai (P|Ekstravert) lebih besar dari nilai (P|Introvert) maka keputusannya
adalah Ekstravert (E)

3.3.Fuzzy Sistem
Dua buah logic yang kita bahas di atas adalah untuk masalah-masalah
yang pasti. Bagaimana merepresentasikan masalah yang mengandung ketidak

System Pendukung Keputusan

163

pastian kedalam suatu bahasa formal yang dipahami komputer? Untuk masalah
seperti ini,kita bisa menggunakan fuzzy logic.Beberapa kalangan menerjemahkan
istilah ini sebagai logika samar.tetapi di buku ini,kita akan tetap menggunakan
istilah fuzzy logic.
Teori tentang fuzzy set atau himpunan samar pertama kali dikemukakan oleh
Lotfi Zadeh sekitar tahun 1965 pada sebelum makalah yang berjudul Fuzzy
Sets.setelah itu,sejak pertengahan 1970-an, para peneliti jepang berhasil
mengaplikasikan teori ini ke dalam berbagai permasalahan praktis. Dengan teori
fuzzy set,kita dapat merepresentasikan dan menangani masalah ketidakpastian
yang dalam hal ini bisa berarti keraguan,ketidaktepatan,kekurangan lengkapan
informasi,dan kebenaran yang bersifat sebagian. Di dunia nyata,seringkali kita
menghadapi suatu masalah yang informasinya sangat sulit untuk diterjemahkan ke
dalam suatu rumus atau angka yang tepat kerena informasi tersebut bersifat
kualitatif (tidak bisa diukur secara kuantitatif).

3.3.1 Fuzziness dan Probabilitas


Banyak peneliti berbeda pendapat tentang teori fuzzy dan teori
probabilitas. Apakah tidak cukup menyelesaikan masalah ketidakpastian dengan
menggunakan teori probabilitas? Kenapa harus menggunakan teori fuzzy?
Sebenarnya, kedua teori tersebut memang sama-sama untuk menangani masalah
ketidakpastian.tetapi perbedaannya adalah pada jenis ketidakpastian yang
ditangani
3.3.2 Fuzzy Set
Fuzzy set merupakan dasar dari fuzzy logic dan fuzzy systems.sebelum
membahas fuzzy set secara mendalam,perhatikan permasalahan berikut tentang
pemberian beasiswa di bawah ini. Memahami masalah tersebut dengan matang
akan membuat kita lebih mudah memahami fuzzy set.

System Pendukung Keputusan

164

Kita ingin memutuskan apakah seorang mahasiswa layak mendapatkan


beasiswa atau tidak. Misalkan, kita hanya memperhatikan dua parameter, yaitu
indeks prestasi(IP) dan dihasilkan tes psikologi(TP). Mahasiswa A memiliki
IP=3,00 dan TP=8,00, sedangkan masiswa B memiliki IP=2,999999 dan TP=8,50.
Ssuatu universitas X membuat suatu aturan keputusan bahwa mahasiswa yang
layak mendapat beasiswa adalah mahasiswa yang memiliki IP 3,00 dan TP
8,00, dengan aturan tersebut, maka dapat diputuskan bahwa mahasiswa A layak
mendapatkan beasiswa sedangkan masiswa B tidak layak. Membuat keputusan
dengan cara seperti ini bisa dianggap tidak adil oleh kalangan mahasiswa. Kenapa
mahasiswa B tidak layak mendapatkan beasiswa? Padahal dia memiliki TP yang
jauh lebih besar dibandingkan dengan mahasiswa A dan IP-nya sedikit lebih kecil
dari IP mahasiswa A (perbedaanya hanya sebesar 0,000001).
Pada kasus di atas, universitas X membuat keputusan dengan aturan yang
jelas dan membedakan secara tegas. Dalam bahasa inggris hal ini disebut sebagai
crisp yang dalam kamus oxford diartikan ssebagai clear and distinct. Untuk
membuat keputusan yang adil,terkadang kita tidak bisa melihat masalah sebagai
hitam dan putih. Terdapat hal-hal bernilai abu-abu yang jika diperhatikan akan
membantu kita untuk membuat keputusan yang secara intuitif dan lebih adil.
Crisp Set
Himpunan yang membedakan anggota dan non anggotanya dengan batasan yang
jelas disebut crisp set. Misalnya jika C={X|x integer,x > 2}, maka anggota C

adalah 3,4,5, dan seterusnya. Sedangkan yang bukan anggota C adalah 2,1,0,1,dan seterusnya.
Fuzzy Set
Misalkan U adalah universe (semesta)objek dan x anggota U. Suatu fuzzy set A
dan di dalam U didefinisikan sebagai suatu fungsi keanggotaan

(X),yang

memetakan setiap objek di U menjadi suatu nilai real dalam interval [0,1].nilainilai

A (X) menyatakan derajat keanggota x di dalam A. Sebagai ilustrasi,

System Pendukung Keputusan

165

perhatikan tabel 3-6 berikut ini. Misalkan,x{5,10,20,30,40,50,60,70,80} adalah


crisp set usia dalam satuan tahun. Balita, Dewasa, Muda, dan Tua adalah empat
buah fuzzy set yang merupakan subset dari x.
Tabel 3-6:suatu crisp set usia dan empat fuzzy set:Balita,Dewasa,Muda,Tua.
X

Balita

Dewasa

Muda

Tua

10

20

0.8

0.8

0.1

30

0.5

0.2

40

0.2

0.4

50

0.1

0.6

60

0.8

70

80

Pada tabel diatas,terdapat empat buah fuzzy set (yang merupakan subset dari x),
dengan anggota dan derajat keanggotannya,sebagai berikut:

Balita ={}

Dewasa

={20,30,40,50,60,70,80,},di

mana

derajat

keanggotaannya

dinyatakan oleh Dewasa={0.8,1,1,1,1,1,1,1}

Muda

={5,10,20,30,40,50,},dimana

derajat

keanggotaannya

oleh

muda={1,1,0.8,0.5,0.2,0.1}

Tua={20,30,40,50,60,70,80},dimana derajat keanggotaannya dinyatakan


oleh Tua={0.1,0.2,0.4,0.6,0.8,1,1

Konversi penulisan fuzzy set


Konversi untuk menuliskan fuzzy set yang dihasilkan dari universe U yang
diskrit adalah sebagai berikut:

System Pendukung Keputusan

166

+ =

Sedangkan jika U adalah kontinyu.maka fuzzy set A di notasikan sabagai:


=

( )

Pada contoh diatas fuzzy set tua di tuliskan sebagai:


=

=0.1/20+0.2/30+0.4/40+0.6/50+0.8/60+1/70+1/80.

Penulisan notasi di ats hanyalah deskripsi

formal dan tanda / menyatakan

pasangan (bukan operasi pembagian).sedangkan tanda + menyatakan functiontheoritic union(bukan operasi penjumlahan).

Membership functions (Fungsi fungsi keanggotaan)


Di dalam fuzzy system, fungsi keanggotaan memainkan peran yang sangat
penting untuk merepresentasikan masalah dan menghasilkan keputusan yang
akurat.terdapat banyak sekali fungsi keanggotaan yang bisa digunakan.di sini, kita
hanya membahas empat pungsi keanggotaan yang sering digunakan di dunia
nyata,yaitu
1.Fungsi Sigmoid
Sesuai dengan namanya, fungsi ini berbentuk kurva sigmoidal seperti huruf S.
Setiap nilai x (anggota crisp set) dipetakan ke dalam interval [0,1]. Grafik dan
notasi matematika untuk fungsi ini adalah sebagai berikut:
0,xa
2(((x-a)/(c-a))2 ,a<xb
Sigmoid(x, a, b, c) =
2
1-2(((x-c)/(c-a)) ,b<xc

1,c<x

2.fungsi phi

System Pendukung Keputusan

167

Disebut fungsi phi karena bentuk seperti simbol phi.pada pungsi keanggotaan
ini,hanya terdapat satu nilai x yang memiliki derajat keanggotaan sama dengan
1,yaitu ketiaka x=c. Nilai-nilai di sekitar c memiliki derajat keanggotaan yang
masih mendekati 1. Grafik dan notasi matematika dari fungsi ini adalah sebagai
berikut:

(x)

c-b

c-b/2

c+b/2

c+b

Gambar 3.6. Grafik Fungsi Phi

phi(x,b,c)=

3.Fungsi segitiga

, , ,

, , + , +

>

Sama dengan fungsi phi,pada fungsi ini juga terdapat hanya 1 nilai x yang
memiliki derajat keanggotaan sama dengan 1,yaitu ketika x=b.tetapi,nilai-niali di
sekitar b memiliki derajat keanggotaan yang turun cukup tajam (menjauhi
1).grafik dan notasi matematika dari fungsi segitiga adalah sebagai berikut:

System Pendukung Keputusan

168

(x)
1

Gambar 3.7. Grafik Fungsi Segitiga


0, ,
(
)/( ), <
( , , , )
( )/( ), <
4.Fungsi trafesium
Berbeda dengan fungsi segitiga,pada pungsi ini terdapat beberapa nilai x yang
yang memiliki derajat keanggotaan untuk

a <x<b dan c<xd memiliki

karakteristik yang sama denagn fungsi segitiga.garfik dan notasi matematika dari
fungsi trapesium adalah sebagai berikut:
(x)

x
a

System Pendukung Keputusan

c
169

Gambar 3.8. Grafik Fungsi Trafesium


0, ,
( )/( ), < <
( , , , , )
1,
( )/( ), <
3.3.3 Fuzzy logic
Di buku ini, fuzzy logic didefinisikan sebagai suatu jenis logic yang
bernilai ganda dan berhubungan dengan ketidakpastian dan kebenaran parsial.
Objek dasar dari suatu logic adalah proposition (proposi) atau pernyataan yang
menyatakan suatu fakta.

Crips input

Fuzzification

Fuzzy input

Fuzzy rules

Inference

Fuzzy output

Defuzzification

System Pendukung Keputusan

170
Crisp value
Crisp value

output

Gambar 3.9. diagram blok yang lengkap untuk system berbasis aturan fuzzy

Variabel linguistik
Varibel linguistik adalah suatu interval numerik dan mempunyai nilai-nilai
linguistik, yang sematiknya didefinisikan oleh fungsi keanggotaannya. Misalnya
suhu adalah suatu variabel linguistik yang bisa didefinisikan pada interval [-10
,40].

Variabel

tersebut

bisa

memiliki

nilai-nilai

linguistik

seperti

Dingin,Hangat,Panasyang sematiknya didefinisikan oleh fungsi-fungsi


keanggotaan yang telah ditentukan.

Suatu sistem berbasis aturan fuzzy yang lengkap terdiri dari tiga komponen
utama: Fuzzycation,Inference dan Defuzzification (lihat gambar 3.9 di atas).
Fuzzification mengubah masukan-masukan yang nilai kebenarannya bersifat pasti
(crisp input) ke dalam bentuk fuzzy input, yang berupa nilai linguistik yang
sematiknya ditentukan berdasarkan fungsi keanggotaan tertentu. Inference
melakukan penalaran menggunakan fuzzy infut dan fuzzy rules yang telah
ditentukan

sehingga menghasilkan fuzzy output. Sedangkan Defuzzification

mengubah fuzzy output menjadi crisp value berdasarkan fungsi keanggotaan yang
telah ditentukan.
Sebagai ilustrasi untuk memperjelas pemahaman tentang sistem berbasis
aturan fuzzy,perhatikan permasalahan berikut.

System Pendukung Keputusan

171

Studi Kasus: Sprinker control system (sistem kontrol untuk penyiram air)
Misalkan kita ingin membangun sistem untuk mengontrol alat penyiram air. Input
untuk sistem tersebut adalah:suhu udara(dalam ) dan Kelembaban tanah
(dalam %). Sedangkan output diinginkan adalah durasi penyiraman (dalam satuan

menit). Misalkan,nilai crisp yang diterima oleh sensor suhu adalah 37 dan nilai
crisp yang diterima sensor kelembaban adalah 12%. Berapa lama durasi
penyiraman yang harus dilakukan?
Untuk menentukan berapa lama durasi penyiraman,maka proses yang di
lakukan adalah:

1. Fuzzification :mengubah kedua nilai crisp input tersebut menjadi


fuzzy input menggunekan fungsi-fungsi keanggotaan:
2. Rule evaluation: melakukan resoning menggunakan nilai-nilai
fuzzy input tersebut fuzzy rule sehingga di hasilkan fuzzy output:
3. Defuzzification : mengubah fuzzy out put menjadi nilai
crips(dalam satuan detik )berdasarkan fungsi keanggotaan untuk
output.
Bagaimanapun, pada masalah tertentu, bisa saja output yang kita butuhkan adalah
suatu nilai fuzzy. Sehingga kita tidak perlu melakukan proses defuzzification.

Fuzzification
Masukan-masukan yang nialai kebenarannya

bersifat pasti(crips input )di

konversikan ke bentuk fuzzy input ,yang berupa nilai linguistik yang sematiknya
ditentukan berdasarkan fungsi keanggotaan. Misalnya , suhu 20 dikonversikan
menjadi hangat dengan derajat keanggotaan sama dengan 0,7.
Inference

System Pendukung Keputusan

172

Untuk membedakan dengan first-order logic,secara sintaks,suatu aturan fuzzy di


tuliskan sebagai:
IF

antecendent

THEN

consequent.

(
Dalam suatu sistem aturan fuzzy, proses inference memperhitungkan semua
aturan yang ada dalam basis pengetahuan. Hasil dari proses inference di
representasikan oleh suatu fuzzy set

untuk setiap kali variabel bebas (pada

consequent). Derajat keanggotaan setiap nilai variabel tidak bebas menyatakan


ukuran kompatibilitas terhadap variabel bebas (pada antecedent). Misalkan
,terdapat suatu sistem dengan n variabel bebas X1 ,..Xn dan m variabel tidak
bebas Y1,..Ym. Misalkan R adalah suatu basis dari sejumlah r aturan fuzzy
IF P1(X1,..,Xn)THEN Q1(Y1,..Ym),
IFPr(X1,Xn)THEN Qr(Y1,..Ym),
Di mana P1,..,Pr menyatakan fuzzy predicate untuk variabel bebas,dan
Q1,..,Qr menyatakan fuzzy predicate untuk variabael tidak bebas.
Terdapat dua model aturan fuzzy yang digunakan secara luas dalam berbagai
aplikasi,yaitu:

Model Mamdani
Pada model ini ,aturan fuzzy di definisikan sebagai :
IFx1 is A1 AND .AND xn is An THEN y is B,

Di mana P1,..,Pr menyatakan fuzzy predicate untuk variabel bebas,dan


Q1,..,Qr menyatakan fuzzy predicate untuk variabael tidak bebas.
Terdapat dua model aturan fuzzy yang digunakan secara luas dalam berbagai
aplikasi,yaitu:
Di mana A1,..,An,dan B adalah nilai-nilai linguistik (atau fuzzy set)x1 is
A1menyatakan bahwa nilai variabel x1 adalah anggota fuzzy set A1

System Pendukung Keputusan

173

Model Sugeno

Model ini dikenal juga sebagai Takagi-Sugeno-Kang (TSK)model,yaitu suatu


varian dari model mamdani.model ini menggunakan aturan yang berbentuk :
IF x1 is A1 AND.AND xn is An THEN y=f (x1,.xn),
Di mana f bisa berupa sembarang fungsi dari variabel-variabel input yang
nilainya berada dalam

interval output.biasanya,fungsi ini dibatasi dengan

menyatakan f sebagai kombinasi linier dari variabel-variabel input:


F(x1,.,xn)=wo+w1x1 +.+ wn xn
Di mana w0,w1,..,wn adalah konstanta yang berupa bilangan real yang
merupakan bagian dari spesifikasi aturan fuzzy.
Defuzzification
Terdapat berbagai metode Defuzzification yang telah berhasil di aplikasikan
untuk berbagai macam masalah . di sini,kita hanya membahas 5 metode
saja,yaitu:

Centroid method

Metode ini di sebut juga sebagai Center of Area atau Center

Of

Gravity.metode ini merupakan metode yang paling penting dan menarik di


antara semua metode yang ada.metode ini menghitung nilai crisp
mengunakan rumus:

( )
( )

Di mana y* suatu nilai crisp. Fungsi integration dapat di ganti dengan fungsi
summation jika nilai bernilai diskrit,sehinga menjadi:
( )
( )
y

System Pendukung Keputusan

174

Di mana y adalah nilai crisp dan

(y) adalah derajat keanggotaan dari y.

Height method

Metode ini di kenal juga sebagai prinsip keanggotaan maksimum karna


metode ini secara sederhana memiliki nilai crisp yang memiliki derajat
keanggotaan maksimum.oleh karna itu, metode ini hanya bisa di pakai untuk
fungsi keanggotaan yang memilki derajat keanggotan 1 pada suatu nilai
crisp dan 0 pada semua nilai crisp yang lain.

First (or Last) of Maxima

Metode ini juga merupakan generalisasi dari height method untuk kasus di
mana fungsi ke anggotaan out put memilki lebih dari 1 nilai
maxsimum.sehingga,nilai crisp yang di gunakan adalah salah satu dari nilai
yang dihasilkan dari maksimum pertama atau maksimum terahir(tergantung
pada aplikasi yang akan di bangun ).

Mean-Max method

Metode ini di sebut juga sebagai Middle of Maxima.metode ini merupakan


generalisasi dari Height methoad untuk kasus di mana terdapat lebih dari 1
nilai crisp yang memiki derajat keangotaan maxsimum.sehingga y*di
definisikan sebagai titik tengah antara nilai crisp terkecil dan nilai crisp
terbesar :

Di mana m adalah nilai crisp yang paling kecil dan M adalah nilai crisp yang
paling besar

Weighted Average

Metode ini mengambil nilai rata-rata dengan menggunakan pembobotan


berupa derajat keanggotaan .sehingga y*di definisikan sebagai:

System Pendukung Keputusan

175

( )
( )

Di mana y adalah nilai crisp dan (y) adalah derajat keanggotaan dri nilai
crisp y.
Studi kasus
Teori tentang fuzzy set dan fuzzy logic banyak di gunakan untuk membangun
system berbasis aturan fuzzy untuk masalah kontrol. Perhatikan kembali masalah
Sprinkler control system (Sistem kontrol penyiram air). Misalkan,nilai crisp yang
di terima oleh sensor suhu adalah 37 dan nilai crisp yang di terima sensor
kelembaban adalah 12%. Berapa lama durasi penyiraman yang harus di lakukan?
Proses fuzzyfication
Misalkan,untuk suhu udara kita menggunakan fungsi keanggotaan trapesium
dengan lima variabel linguistik: Cold,Cool,Normal,Warm, Hot dengan funsi
ini,maka crisp input suhu 37 dikonversi ke nilai fuzzy dengan cara :

Suhu 37 berada pada nilai linguistik Warm dan Hot

Semantik atau derajat keanggotaan untuk Warm di hitung menggunakan


rumus

(x-d)/(d-c),c<x d (lihat notasi mate-matika

untuk fungsi trapezium),dimana c=36,dan d=39.sehingga derajat


keanggotaanWarm=-(37-39)/(39-36)=2/3.

Derajat keanggotaan untuk hot dihitungkan menggunakan rumus


(x-a)/(b-a),a<x<b,dimana a=36,dan b=39.sehingga derajat keanggotaan
Hot=(37-36)/(39-36)=1/3.

Could

Cool

2/3
System Pendukung Keputusan

Normal

176

Warm

Hot

Gambar 3.10. fungsi keanggotaan trapesium untuk suhu udara .


Misalkan,kita juga menggunakan fungsi keangggotaan Trapesium untuk
Kelembaban tanah.dengan pungsi ini,maka crisp input kelembaban 12%
dikonversi menjadi nilai fuzzy dengan cara berikut ini:

Kelembaban 12% berada pada nilai linguistik Dry dan Moist.

Semantik atau derajat keanggotaan untuk Dry dihitung menggunakan


rumus
-(x-d)/(d-c),c<xd,dimana c=10,dan d=20(lihat gambar 3-15). Sehingga
derajat keanggotaan untuk Moist di hitung menggunkan rumus (x-a)/(ba),a<x<b, di mana

a=10,dan b=20.sehingga derajat keanggotaan

Moist=(12-10)/(20-10)=1/5.

Dry

Moist

Wet

1
4/5

1/5
Kelembaban(%)
0

10

System Pendukung Keputusan

40

20
177

50

70

Gambar 3.11. Fungsi keanggotaan trapesium untuk kelembaban Tanah.

Short

Medium

20

28

Long

40

48

90

Durasi
(menit)

Gambar 3.12. Fungsi keanggotaan trapesium untuk Durasi Penyiraman.

Jadi proses fuzzification menghasilkan empat fuzzy input: suhu udara=warm(2/3)


dan hot(1/3),dan kelembaban tanah=dry (4/5)dan moist(1/5).
Proses inferensi
Terdapat berbagai macam cara dalam menentukan aturan fuzzy.misalkan,untuk
durasi penyiraman kita menggunakan fungsi keanggotaan trapesium dengan tiga
nilai linguistik:short,medium,dan long . Sebagai contoh, misalkan kita
mendefinisikan aturan fuzzy seperti pada gambar 3.13
Antecedent 1 (suhu udara)

System Pendukung Keputusan

178

Antecedent 2
(kelembaban)

Cold
Long
Long
Short

Dry
Moist
Wet

Cool
Long
Medium
Short

Normal
Long
Medium
Short

Warm
Long
Medium
Short

Hot
Long
Medium
Short

Gambar 3.13. Aturan Fuzzy


Dengan definisi aturan fuzzy pada gambar 3.13 di atas,kita mempunyai 3x5=15
aturan fuzzy,yaitu:
IF

Suhu=Cold

AND

Kelembaban=Dry

THEN

IF

Suhu=Hot

AND

Kelembaban=Wet

THEN

Durasi=Long

Durasi=Short
Di sini kita akan membahas penggunaan inferensi menggunakan model mamdani
dan model sugeno.kita akan melihat perbedaan kedua model tersebut.

Proses inference menggunakan model mamdani


Jika kita menggunakan model mamdani, kita bisa menggunakan dua cara
inferensi,yaitu clipping(alpha-cut) atau scaling. Metode yang paling umum
digunakan

adalah

clipping

karena

mudah

diimplementasikan

dan

bila

diagregasikan dengan fungsi lain akan menghasilkan bentuk yang mudah didefuzzification.
Dari

empat

data

fuzzy

input

tersebut,Warm(2/3),hot(1/3),Dry(4/5)dan

Moist(1/5),maka kita mendapatkan empat aturan (dari 15 aturan)yang dapat


diaplikasiakan
IF Suhu is Warm AND Kelembaban is Dry THEN Durasi Long

System Pendukung Keputusan

179

IF Suhu Warm AND Kelembaban is Moist THEN Durasi is Medium


IF Suhu is Hot AND Kelembaban is Dry THEN Durasi is Long
IF Suhu is Hot AND Kelembaban is THEN Durasi is Medium
Dari empat aturan fuzzy dan empat fuzzy input tersebut, maka proses inference
yang terjadi adalah sebgai berikut(misal kita menggunakan inferensing clipping).

Gunakan aturan conjuction(^)dengan memilih derajat keanggotaan


minimum dari nilai-nilai linguistik yang di hubungkan oleh ^ (lihat
persamaan 3-21) dan lakukan Clipping pada fungsi keanggotaan trapesium
untuk durasi Peyiraman.sehingga di proleh

IF Suhu is Warm (2/3) AND Kelembaban is Dry (4/5) THEN Durasi is


Long (2/3)
IF Suhu is Warm (2/3) AND Kelembaban is Moist (1/5) THEN Durasi is
Medium (1/5)
IF Suhu is Hot (1/3) AND Kelembaban is Dry (4/5) THEN Durasi is
Long (1/3)
IF Suhu is Hot (1/3)AND Kelembaban is Moist (1/5)THEN Durasi is
Medium (1/5)

Gunakan aturan Disjunction ( ) dengan memilih derajat keanggotaan


Maximum dari nilai-nilai linguistik yang dihubungkan oleh v, dari Durasi
is Long (2/3) v Durasi is Long (1/3) dihasilkan Durasi is Long (2/3).
Sedangkan, dari Durasi is Medium (1/5) v Durasi is Medium (1/5)
dihasilkanDurasi is Medium (1/5). Dengan demikain, kita memproleh
dua pernyataan: Durasi Long (2/3) dan Durasi is Medium (1/5). Prose
inferensi menggunakan proses Clipping menghasilkan dua area abu-abu

System Pendukung Keputusan

180

Proses inference menggunakan Model Sugeno


Model Sugeno menggunakan fungsi keanggotaan yang lebih sederhana
dibandingkan Model Mamdani. Fungsi keanggotaan tersebut adalah Singleton,
yaitu fungsi keanggotaan 1 pada suatu nilai crisp tunggal dan 0 pada semua nilai
crisp yang lain. Misalkan kita definisikan fungsi singleton untuk durasi
Penyiraman berikut ini:
Dengan cara yang sama seperti pada Model Mamdani, di proleh:Durasi is Long
(4/5) dan Durasi is Medium (1/5). Prose inferensi menggunakan Model Sugeno
menghasilkan dua derajat keanggotaan

Proses defuzzyficatition
Sebelum

defuzzyficatition, kita harus melakukan proses composition, yaitu

agregasi hasil Clipping dari semua aturan fuzzy sehingga kita dapatkan satu fuzzy
set tunggal.
Proses defuzzyfication menggunakan Model Mamdani
Proses composition dari dua fuzzy set,durasi is Medium (1/5) dan (b) Durasi is
Long (2/3) menghasilkan satu fuzzy set tunggal. Misalkan,kita menggunakan
Centroid method untuk proses defuzzyfication. Untuk mendapatkan nilai crisp
menggunakan Centroid method.Untuk memudahkan penghitungan, menentukan
titik sembarang pada area abu-abu tersebut, misalkan:24,28,32,36,40,48,60,70,80
dan 90, diproleh hasil sebagai berikut:

System Pendukung Keputusan

) /
/
,

181

/
,

=60,97

) /
/

Jadi dengan menggunakan Model Mamdani, untuk Suhu Udara 37 dan


Kelembaban tanah 12%, maka sprinkle secara otomatis akan menyiramkan air
selama 60,97 menit
Proses defuzzyfication menggunakan Model Sugeno
Proses composition dari dua fuzzy set, Durasi is Medium (1/5) dan (b) Durasi is
long (2/3), menghasilkan satu fuzzy set tunggal. Jika kita menggunakan Height
method untuk proses defuzzyfication,maka dari dua fuzzy set,Medium (1/5) dan
long (2/3),dipilih nilai maksimumnya yaitu long (2/3).karena nilai crisp untuk
long adalah 60,maka proses defuzzyfication menghasilkan nilai crisp sebesar 60.
Dengan demikian, Durasi penyiraman adalah 60 menit.
Jika kita menggunakan Weighted Average untuk proses defuzzyfication,maka

/ (

/ (
/

= 55,38

Dengan demikian, jika kita menggunakan Model Sugeno dengan defuzzyfication


berupa Weighted Avarage, maka Durasi penyiraman adalah 55,38 menit
Pada kasus di atas,model Mamdani dan model Sugeno menghasilkan output yang
berbeda. Hal ini tentu saja sangat dipengaruhi oleh dua hal:
1)perbedaan dalam mendefinisikan fungsi keanggotaan untuk Durasi penyiraman
;dan
2) perbedaan dalam penggunaan metode defuzzyfication.
Dari ilustrasi kedua model di atas, terlihat bahwa model Sugeno menggunakan
perhitungan yang libih sederhana dibandingkan model Mamdani. Tetapi,model
Mamdani dapat memberikan output yang lebih intutif dan lebih sesuai dengan
pola pikir manusia dibandingkan dengan model sugeno. Model Sugeno sering
digunakan untuk masalah non linier yang dinamis, seperti sistem kontrol, karena
waktu prosesnya yang sangat cepat dan output yang dihasilkan masih bisa
diterima.

System Pendukung Keputusan

182

Pada kasus diatas,sistem berbasis aturan fuzzy menggunakan model Mamdani


bisa menghasilkan output yang berupa bilangan real (yaitu 60,97).

3.4.

Certainty Factor

3.4.1. Pengertian Faktor Kepastian ( Certainty Factor )


Dalam menghadapi suatu masalah sering ditemukan jawaban yang
tidak memiliki kepastian penuh. Ketidakpastian ini bisa berupa probabilitas
atau kebolehjadian yang tergantung dari hasil suatu kejadian. Hasil yang tidak
pasti disebabkan oleh dua faktor
yaitu aturan yang tidak pasti dan jawaban pengguna yang tidak pasti atas
suatu
pertanyaan yang diajukan oleh sistem. Ada tiga penyebab ketidakpastian aturan
yaitu

aturan

tunggal,

penyelesaian konflik

dan

ketidakcocokan

(incompatibility) antar konskuen dalam aturan. Aturan tunggal yang dapat


menyebabkan ketidakpastian dipengaruhi oleh tiga hal, yaitu kesalahan,
probabilitas dan kombinasi gejala (evidence). Kesalahan dapat terjadi karena
(Kusrini, 2006) adalah sebagai berikut :
1. ambiguitas, sesuatu didefinisikan dengan lebih dari satu cara.
2. ketidaklengkapan data
3. kesalahan informasi
4. ketidakpercayaan terhadap suatu alat
5. adanya bias
Probabilitas disebabkan ketidakmampuan seorang pakar merumuskan suatu
aturan secara pasti. Misalnya jika seseorang mengalami sakit kepala, demam
dan bersin-bersin ada kemungkinan orang tersebut terserang penyakit flu,
tetapi bukan berarti apabila seseorang mengalai gejala tersebut pasti terserang
penyakit flu. Certainty Factor (CF) menujukkan ukuran kepastian terhadap suatu
fakta atau aturan.Notasi Faktor Kepastian(Sri Kusumadewi, 2003) adalah sebagai
berikut :

System Pendukung Keputusan

183

CF[h,e] = MB[h,e] MD[h,e]


dengan
CF[h,e] : Faktor Kepastian
MB[h,e] : ukuran kepercayaan terhadap hipotesis h , jika
diberikan evidence e ( antara 0 dan 1 ).
MD[h,e] : ukuran ketidakpercayaan terhadap evidence h,jika
diberikan
evidence e ( antara 0 dan 1 )

3.4.2. Kombinasi Aturan

Metode MYCIN untuk menggabungkan evidence pada antecedent sebuah aturan


yang
ditunjukka pada tabel berikut ini :
Tabel 3. 7. Aturan Kombinasi Mycin
Evidence,E

Antecedent Ketidakpastian

E1 dan E2

Min[CF(H,E1),CF(H,E2)]

E1 or E2

Max[CF(H,E1), CF(H,E2)]

Tidak E

-CF(H,E)

Bentuk dasar rumus certainty factor sebuah aturan JIKA E MAKA H adalah
sebagai berikut :
CF(H,e) = CF(E,e) * CF(H,E)
Di mana :
CF(E,e)

: Certainty Factor evidence E yang dipengaruhi ileh

evidence e
CF(H,E) : Certainty Factor hipotesis dengan asumsi evidence
diketahui
dengan pasti, yaitu ketika CF(E,e) = 1
CF(H,e) : Certainty Factor hipotesis yang dipengaruhi oleh evidence e
Jika semua evidence dan antecedent
pasti maka rumusnya menjadi

System Pendukung Keputusan

184

diketahui dengan

CF(H,e) = CF (H,E)
Dalam diagnosis suatu penyakit , hubungan antara gejala dengan hipotesis
sering tidak pasti. Sangat dimungkinkan beberapa aturan

menghasilkan satu

hipotesis
dan suatu hipotesis menjadi evidence bagi aturan lain. Kondisi tersebut
dapat
digambarkan sebagai berikut :

Gambar 3.14. Jaringan penalaran certainty factor


Dari gambar di atas ditunjukkan bahwa certainty factor dapat digunakan
untuk
menghitung perubahan derajat kepercayaan dari hipotesis F ketika A dan B
bernilai
benar. Hal ini dapat dilakukan dengan mengkombinasikan semua certainty factor
pada
A dan B menuju F menjadi sebuah alur hipotesis certainty factor seperti di bawah
ini:
JIKA (A DAN B) MAKA F
Kondisi ini juga dapat digambarkan sebagai berikut:
AB
Kombinasi seperti ini disebut kombinasi paralel ,sebagaimana ditunjukkan oleh
gambar di bawah ini :

System Pendukung Keputusan

185

Gambar 3.15. Kombinasi Paralel Certainty Factor


Pada kondisi ini evidence E1 dan E2 mempengaruhi hipotesis yang sama,
yaitu H.
Kedua Certainty

Factor

menghasilkan certainty
dikombinasikan

CF(H,E1)
factor

dan

CF(H,E2)

CF(H,E1,E2).

Certainty

sehingga menghasilkan certainty

factor

dikombinasikan
kedua
CF(H,E).

aturan
Untuk

menghitung kombinasi tersebut digunakan rumus berikut


CF(H,E) = CF(E,E) * CF (H,E)

3.4.3. Perhitungan Certainty Factor

Berikut ini adalah contoh ekspresi logika yang mengkombinasikan evidence :


E=(E1 DAN E2 DAN E3) ATAU (E4 DAN BUKAN E5)
Gejala E akan dihitung sebagai :
E = max[min(E1,E2,E3),min(E4,-E5)]
Untuk nilai E1 = 0,9 E2 = 0,8 E3 = 0,3 E4 = -0,5 E5 = -0,4
Hasilnya adalah :
E = max[min(E1,E2,E3),min(E4,-E5)]
= max(0,3, -0,5)
= 0,3
Bentuk dasar rumus Certainty Factor sebuah aturan JIKA E MAKA H
ditunjukkan oleh rumus :
CF(H,e) = CF( E,e)*CF(H,E)

System Pendukung Keputusan

186

Dimana :
CF(E,e) : Certainty Factor evidence E yang dipengaruhi oleh evidence
CF(H,E) : Certainty Factor hipotesis dengan asumsi evidence diketahui dengan
pasti , yaitu ketika CF(E,e)=1
CF(H,e) : Certainty factor hipotesis yang dipengaruhi oleh evidence e

Jika semua evidence pada antecedent diketahui dengan pasti, maka rumusnya
ditunjukkan sebagai berikut :
CF(H,e) = CF(H,E)
Karena CF(E,e) = 1.
Contoh kasus yang melibatkan kombinasi CF :
JIKA batuk
DAN demam
DAN sakit kepala
DAN bersin-bersin
MAKA influenza,
CF : 0,7 dengan menganggap E1 : batuk,
kepala,

E2 :demam,

E3 :sakit

E4:bersin-bersin, dan H:influenza,

nilai certainty factor pada saat evidence pasti adalah :


CF(H,E) : CF(H,E1 E2 E3 E4)
: 0,7
Dalam kasus ini , kondisi pasien tidak dapat ditentukan dengan pasti . Certainty
factor
evidence E yang dipengaruhi oleh partial evidence e ditunjukkan dengan nilai
sebagai
berikut :
CF(E1,e) : 0,5 (pasien mengalami batuk 50%)
CF(E2,e) : 0,8 (pasien mengalami demam 80%)
CF(E3,e) : 0,3 (pasien mengalami sakit kepala 30%)
CF(E4,e) : 0,7 (pasien mengalami bersin-bersin 70%)
Sehingga

System Pendukung Keputusan

187

CF(E,e) = CF(H,E1 E2 E3 E4)


= min[CF(E1,e), CF(E2,e), CF(E3,e), CF(E4,e)]
= min[0,5, 0,8, 0,3, 0,7]
= 0,3
Maka nilai certainty factor hipotesis adalah :
CF(H,e) = CF(E,e)* CF(H,E)
= 0,3 * 0,7
= 0,21

System Pendukung Keputusan

188

BAB IV
SISTEM PENDUKUNG KEPUTUSAN
4.1. Fuzzy Multiple Attribute Decision Making (FMADM)
Fuzzy Multiple Attribute Decision Making (FMADM) adalah suatu metode
yang digunakan untuk mencari alternatif optimal dari sejumlah alternatif dengan
kriteria tertentu. Inti dari FMADM adalah menentukan nilai bobot untuk setiap
atribut, kemudian dilanjutkan dengan proses perankingan yang akan menyeleksi
alternatif yang sudah diberikan. Pada dasarnya, ada tiga pendekatan untuk
mencari nilai bobot atribut, yaitu pendekatan subyektif, pendekatan obyektif dan
pendekatan integrasi antara subyektif & obyektif. Masing-masing pendekatan
memiliki kelebihan dan kelemahan. Pada pendekatan subyektif, nilai bobot
ditentukan berdasarkan subyektifitas dari para pengambil keputusan, sehingga
beberapa faktor dalam proses perankingan alternatif bisa ditentukan secara bebas.
Sedangkan pada pendekatan obyektif, nilai bobot dihitung secara matematis
sehingga mengabaikan subyektifitas dari pengambil keputusan (Sri Kusumadewi,
2007). Ada beberapa metode yang dapat digunakan untuk menyelesaikan masalah
FMADM, antara lain (Kusumadewi, 2006):
a. Simple Additive Weighting (SAW)
b. Weighted Product (WP)
c. ELECTRE
d. Technique for Order Preference by Similarity to Ideal Solution (TOPSIS)
e. Analytic Hierarchy Process (AHP)

MADM adalah suatu metode yang digunakan untuk mencari alternatif paling
optimal dari sejumlah alternatif optimal dengan kriteria tertentu. Inti dari MADM

System Pendukung Keputusan

189

adalah menentukan nilai bobot untuk setiap atribut, kemudian dilanjutkan dengan
proses perangkingan yang akan menyeleksi alternative yang sudah diberikan.

4.2. Sistem Pendukung Keputusan


Menurut Litlle Sistem Pendukung Keputusan adalah suatu sistem
informasi bebasis komputer yang menghasilkan berbagai alternatif keputusan
untuk membantu manajemen dalam menangani berbagai permasalahan yang
terstruktur ataupun tidak terstruktur dengan menggunakan data dan model. Kata
berbasis komputer merupakan kata kunci, karena hampir tidak mungkin
membangun SPK tanpa memanfaatkan komputer sebagai alat bantu, terutama
untuk menyimpan data serta mengelola model(Daihani,2001).
Pada

dasarnya

Sistem

Pendukung

Keputusan

ini

merupakan

pengembangan lebih lanjut dari sistem informasi manajemen terkomputerisasi


yang dirancang sedemikian rupa sehigga bersifat interaktif dengan pemakainya.
Sifat interaktif ini dimaksudkan untuk memudahkan integrasi antara berbagai
komponen dalam proses pengambilan keputusan seperti prosedur, kebijakan,
teknik analisis, serta pengalaman dan wawasan manajerial guna membentuk suatu
kerangka keputusan yang bersifat fleksibel(Suryadi,1998).

4.2.1. Ciri-ciri Decision Support System (DSS)


Menurut(Kosasi, 2002) adapun ciri-ciri sebuah DSS seperti yang
dirumuskan oleh Alters Keen adalah sebagai berikut:
1. DSS ditujukan untuk membantu pengambilan keputusan-keputusan yang
kurang terstruktur dan umumnya dihadapi oleh para manajer yang berada
di tingkat puncak.

System Pendukung Keputusan

190

2. DSS merupakan gabungan antara kumpulan model kualitatif dan


kumpulan data.
3. DSS memiliki fasilitas interaktif yang dapat mempermudah hubungan
antara manusia dengan komputer.
4. DSS bersifat luwes dan dapat menyesuaikan dengan perubahan-perubahan
yang terjadi.

4.2.2. Karakteristik, Kemampuan dan Keterbatasan SPK


Sehubungan banyaknya definisi yang dikemukakan mengenai pengertian
dan penerapan dari sebuah DSS, sehingga menyebabkan terdapat banyak sekali
pandangan mengenai sistem tersebut. Selanjutnya Turban (1996), menjelaskan
terdapat sejumlah karakteristik dan kemampuan dari DSS (Kosasi, 2002 ) yaitu:
a. Karakteristik DSS
8. Mendukung seluruh kegiatan organisasi
9. Mendukung beberapa keputusan yang saling berinteraksi
10. Dapat digunakan berulang kali dan bersifat konstan
11. Terdapat dua komponen utama, yaitu data dan model
12. Menggunakan baik data eksternal dan internal
13. Memiliki kemampuan what-if analysis dan goal seeking analysis
14. Menggunakan beberapa model kuantitatif
b. Kemampuan DSS
13. Menunjang pembuatan keputusan manajemen dalam menangani masalah
semi terstruktur dan tidak terstruktur
14. Membantu manajer pada berbagai tingkatan manajemen, mulai dari
manajemen tingkat atas sampai manajemen tingkat bawah
15. Menunjang pembuatan keputusan secara kelompok maupun perorangan
16. Menunjang pembuatan keputusan yang saling bergantung dan berurutan

System Pendukung Keputusan

191

17. Menunjang tahap-tahap pembuatan keputusan antara lain intelligensi,


desain, choice, dan implementation
18. Menunjang berbagai bentuk proses pembuatan keputusan dan jenis
keputusan
19. Kemampuan untuk melakukan adaptasi setiap saat dan bersifat fleksibel
20. Kemudahan melakukan interaksi system

System Pendukung Keputusan

192

21. Meningkatkan efektivitas dalam pembuatan keputusan daripada efisiensi


22. Mudah dikembangkan oleh pemakai akhi
23. Kemampuan pemodelan dan analisis pembuatan keputusan
24. Kemudahan melakukan pengaksesan berbagai sumber dan format data
Di samping berbagai Karakteristik dan Kemampuan seperti dikemukakan
di

atas,

SPK

juga

memiliki

beberapa

keterbatasan,

diantaranya

adalah(Daihani,2001):
5. Ada beberapa kemampuan manajemen dan bakat manusia yang tidak dapat
dimodelkan, sehingga model yang ada dalam sistem tidak semuanya
mencerminkan persoalan sebenarnya.
6. Kemampuan suatu SPK terbatas pada pembendaharaan pengetahuan yang
dimilikinya (pengetahuan dasar serta model dasar).
7. Proses-proses yang dapat dilakukan oleh SPK biasanya tergantung juga
pada kemampuan perangkat lunak yang digunakannya.
8. SPK tidak memiliki kemampuan intuisi seperti yang dimiliki oleh
manusia. Karena walau bagaimana pun canggihnya suatu SPK, hanyalah
sautu kumpulan perangkat keras, perangakat lunak dan sistem operasi
yang tidak dilengkapi dengan kemampuan berpikir.

8.2.3. Komponen - Komponen Sistem Pendukung Keputusan


Sistem Pendukung Keputusan terdiri dari tiga komponen utama atau subsistem
(Daihani,2001)yaitu:
1. Subsistem Data (Data Subsystem)
Subsistem data merupakan komponen SPK penyedia data bagi sistem.
Data dimaksud disimpan dalam data base yang diorganisasikan oleh suatu sistem
dengan

sistem

manajemen

pangkalan

data

(Data

Base

Management

System/DBMS). Melalui pangkalan data inilah data dapat diambil dan diekstrasi
dengan cepat.
2. Subsistem Model (Model Subsystem)

System Pendukung Keputusan

193

Keunikan dari SPK adalah kemampuannya dalam mengintegrasikan data


dengan model - model keputusan.

System Pendukung Keputusan

194

Model merupakan peniruan dari alam nyata. Hal lain yang perlu
diperhatikan adalah pada setiap model yang disimpan hendaknya ditambahkan
rincian keterangan dan penjelasan yang komprehensif mengenai model yang
dibuat, sehingga pengguna atau perancang:
1) Mampu membuat model yang baru secara mudah dan cepat.
2) Mampu mengakses dan mengintegrasikan subrutin model
3) Mampu menghubungkan model dengan model yang lain melalui
pangkalan data.
4) Mampu mengelola model base dengan fungsi manajemen yang
analog dengan manajemen data base (seperti mekanisme untuk
menyimpan, membuat dialog, menghubungkan, dan mengakses
model).
3. Subsistem Dialog (User System Interface)
Keunikan lain dari SPK adalah adanya fasilitas yang mampu
mengintegrasikan sistem terpasang dengan pengguna secara interaktif. Melaui
subsistem dialog inilah sistem diartikulasikan dan diimplementasikan sehingga
pengguna dapat berkomunikasi dengan sistem yang dirancang. Fasilitas yang
dimiliki oleh subsistem ini dapat dibagi menjadi tiga komponen(Daihani,2001),
yaitu:
1) Bahasa aktif (Action Language), perangkat yang digunakan untuk
berkomunikasi dengan sistem, seperti keyboard, joystick, panelpanel sentuh lain, perintah suara atau key function lainnya.
2) Bahasa tampilan (Presentation

Language),

perangkat

yang

digunakan sebagai sarana untuk menampilkan sesuatu, seperti


printer, grafik display, plotter, dan lainnya.
3) Basis pengetahuan (Knowladge Base), perangkat yang harus
diketahui pengguna agar pemakaian sistem bisa efektif.

8.2.4. Tahapan Proses Pengambilan Keputusan


Menurut Simon ada 4 tahap yang harus dilalui dalam proses pengambilan
keputusan(Daihani,2001) yaitu:

System Pendukung Keputusan

195

1) Penelusuran (intelligence)
Tahap ini merupakan tahap pendefinisian masalah serta identifikasi
informasi yang dibutuhkan yang berkaitan dengan persoalan yang di
hadapi serta keputusan yang akan di ambil.
2) Perancangan (design)
Tahap ini merupakan tahap analisa dalam kaitan mencari atau
merumuskan alternatif-alternatif pemecahan masalah.
3) Pemilihan (choise)
Yaitu memilih alternatif solusi yang diperkirakan paling sesuai.
4) Implementasi (implementation)
Tahap ini merupakan tahap pelaksanaan dari keputusan yang telah diambil.

4.2 Metode Analytical Hierarchy Process (AHP)


AHP merupakan salah satu metode untuk membantu menyusun suatu
prioritas dari berbagai pilihan dengan menggunakan berbagai kriteria. Karena
sifatnya yang multikriteria, AHP cukup banyak digunakan dalam penyusunan
prioritas. Sebagai contoh untuk menyusun prioritas penelitian, pihak manajemen
lembaga penelitian sering menggunakan beberapa kriteria seperti dampak
penelitian, biaya, kemampuan SDM, dan waktu pelaksanaan(Susila,2007). Di
samping bersifat multikriteria, AHP juga didasarkan pada suatu proses yang
terstruktur dan logis. Pemilihan atau penyusunan prioritas dilakukan dengan suatu
prosedur yang logis dan terstuktur. Kegiatan tersebut dilakukan oleh ahli-ahli
yang

representatif

berkaitan

dengan

alternatif-alternatif

yang

disusun

prioritasnya(Kuazril, 2005).
Metode AHP merupakan salah satu model untuk pengambilan keputusan
yang dapat membantu kerangka berfikir manusia. Metode ini mula-mula
dikembangkan oleh Thomas L. Saaty pada tahun 70-an. Dasar berpikirnya metode
AHP adalah proses membentuk skor secara numerik untuk menyusun rangking
setiap alternatif keputusan berbasis pada bagaimana sebaiknya alternatif itu
dicocokkan dengan kriteria pembuat keputusan(Supriyono, 2007).

System Pendukung Keputusan

196

Proses pengambilan keputusan pada dasarnya adalah memilih suatu alternatif.


Peralatan utama AHP adalah sebuah hirarki fungsional dengan input utamanya
persepsi manusia. Dengan hirarki, suatu masalah kompleks dan tidak terstruktur
dipecahkan ke dalam kelompok-kelompoknya. Kemudian kelompok-kelompok
tersebut diatur menjadi suatu bentuk hirarki.
Suatu tujuan yang bersifat umum dapat dijabarkan dalam beberapa
subtujuan yang lebih terperinci dan dapat menjelaskan maksud tujuan umum.
Penjabaran ini dapat dilakukan terus hingga diperoleh tujuan yang bersifat
operasional. Pada hierarki terendah dilakukan proses evaluasi atas alternatifalternatif yang merupakan ukuran dari pencapaian tujuan utama dan pada hierarki
terendah ini dapat ditetapkan dalam satuan apa suatu kriteria diukur.
Dalam penjabaran hirarki tujuan, tidak ada suatu pedoman yang pasti
mengenai seberapa jauh pembuat keputusan menjabarkan tujuan menjadi tujuan
yang lebih rendah. Pengambil keputusanlah yang menentukan saat penjabaran
tujuan ini berhenti, dengan memperhatikan keuntungan atau kekurangan yang
diperoleh bila tujuan tersebut diperinci lebih lanjut. Beberapa hal yang perlu
diperhatikan dalam melakukan proses penjabaran hirarki tujuan (Suryadi,1998)
yaitu:
1. Pada saat penjabaran tujuan ke dalam subtujuan yang lebih rinci harus
selalu memperhatikan apakah setiap tujuan yang lebih tinggi tercakup
dalam subtujuan tersebut.
2. Meskipun hal tersebut dapat dipenuhi, juga perlu menghindari
terjadinya pembagian yang terlampau banyak baik dalam arah
horizontal maupun vertikal.
3. Untuk itu sebelum menetapkan tujuan harus dapat menjabarkan hierarki
tersebut sempai dengan tujuan yang paling lebih rendah dengan cara
melakukan tes kepentingan.

4.2.1 Kelebihan AHP


Adapun yang menjadi kelebihan dengan menggunakan metode AHP
dibandingkan yang lainnya adalah :

System Pendukung Keputusan

197

1. Struktur yang berbentuk hirarki sebagai konsekuensi dari kriteria yang


dipillih sampai pada subkriteria yang paling dalam.
2. Memperhatikan validitas sampai dengan batas toleransi inkonsistensi
berbagai kriteria dan alternatif yang dipilih oleh para pengambil
keputusan.
3. Memperhitungkan daya tahan atau ketahanan keluaran analisis
sensitivitas pembuat keputusan.
Selain itu metode AHP mempunyai kemampuan untuk memecahkan
masalah yang multiobjektif dan multikriteria yang berdasar pada perbandingan
preferensi dari setiap elemen dalam hierarki. Jadi, metode AHP merupakan suatu
bentuk

pemodelan

pembuatan

keputusan

yang

sangat

komprehensif(Suryadi,1998).

4.2.2 Prinsip - Prinsip Analytical Hierarchy Process


Menurut Mulyono Dalam menentukan proiritas AHP menggunakan prinsip
prinsip(Kosasi,2002) sebagai berikut:
1. Decomposition
Sistem yang kompleks bisa dipahami dengan memecahkannya menjadi
elemen-elemen yang lebih kecil dan mudah dipahami.

Gambar 2.1 Hierarki 3 level AHP

2. Comparative judgment (penilaian kriteria dan alternatif)

System Pendukung Keputusan

198

Prinsip ini memberikan penilaian tentang kepentingan relatif dua elemen


pada suatu tingkat tertentu dalam kaitannya dengan tingkat diatasnya.
Tabel 4.1 Skala penilaian perbandingan berpasangan
Intensitas Kepentingan

Keterangan

Kedua elemen sama pentingnya

Elemen yang satu sedikit lebih


penting

daripada

elemen

yang

lainnya
5

Elemen yang satu lebih penting


daripada elemen yang lainnya

Satu elemen jelas lebih mutlak


penting daripada elemen lainnya

Satu

elemen

mutlak

penting

daripada elemen lainnya


2,4,6,8

Nilai-nilai

antara

dua

nilai

pertimbangan yang berdekatan

3. Synthesis of priority (Menentukan Prioritas)


Menentukan prioritas dari elemen-elemen kriteria dapat dipandang sebagai
bobot/kontribusi elemen tersebut terhadap tujuan pengambilan keputusan.
AHP melakukan analisis prioritas elemen dengan metode perbandingan
berpasangan antar dua elemen sehingga semua elemen yang ada tercakup.
Prioritas ini ditentukan berdasarkan pandangan para pakar dan pihak-pihak
yang berkepentingan terhadap pengambilan keputusan, baik secara
langsung (diskusi) maupun secara tidak langsung (kuisioner).

4. Logical Consistency (konsistensi logis)


Konsistensi memiliki dua makna. Pertama, objek-objek yang serupa bisa
dikelompokkan sesuai dengan keseragaman dan relevansi. Kedua,
menyangkut tingkat hubungan antar objek yang didasarkan pada kriteria
tertentu. (Kosasi,2002)

System Pendukung Keputusan

199

4.2.3 Langkah-Langkah Analytical Hierarchy Process


Secara umum langkah-langkah yang harus dilakukan dalam menggunakan AHP
untuk pemecahan suatu masalah adalah sebagai berikut:
1. Mendefinisikan masalah dan menentukan solusi yang diinginkan, lalu
menyusun hierarki dari permasalahan yang dihadapi.
2. Menentukan prioritas elemen
a.

Langkah pertama dalam menentukan prioritas elemen adalah membuat


perbandingan pasangan, yaitu membandingkan elemen secara
berpasangan sesuai kriteria yang diberikan.

b.

Matriks perbandingan berpasangan diisi menggunakan bilangan untuk


merepresentasikan kepentingan relatif dari suatu elemen terhadap
elemen yang lainnya.

3. Sintesis
Pertimbangan-pertimbangan terhadap perbandingan berpasangan disintesis
untuk memperoleh keseluruhan prioritas. Hal-hal yang dilakukan dalam
langkah ini adalah:
a.

Menjumlahkan nilai-nilai dari setiap kolom pada matriks

b.

Membagi setiap nilai dari kolom dengan total kolom yang


bersangkutan untuk memperoleh normalisasi matriks.

c.

Menjumlahkan nilai-nilai dari setiap baris dan membaginya dengan


jumlah elemen untuk mendapatkan nilai rata-rata.

4. Mengukur Konsistensi
Dalam pembuatan keputusan, penting untuk mengetahui seberapa baik
konsistensi yang ada karena kita tidak menginginkan keputusan
berdasarkan pertimbangan dengan konsistensi yang rendah. Hal-hal yang
dilakukan dalam langkah ini adalah sebagai berikut:

System Pendukung Keputusan

200

a. Kalikan setiap nilai pada kolom pertama dengan prioritas relatif


elemen pertama, nilai pada kolom kedua dengan prioritas relatif
elemen kedua dan seterusnya.
b. Jumlahkan setiap baris
c. Hasil dari penjumlahan baris dibagi dengan elemen prioritas relatif
yang bersangkutan
d. Jumlahkan hasil bagi di atas dengan banyaknya elemen yang ada,
hasilnya disebut maks
5. Hitung Consistency Index (CI) dengan rumus:
CI = (max n) /n
Dimana n = banyaknya elemen.
6. Hitung Rasio Konsistensi/Consistency Ratio (CR) dengan rumus:
CR= CI/RC
Dimana CR = Consistency Ratio
CI = Consistency Index
IR = Indeks Random Consistency
7. Memeriksa konsistensi hierarki. Jika nilainya lebih dari 10%, maka
penilaian data judgment harus diperbaiki. Namun jika Rasio Konsistensi
(CI/CR) kurang atau sama dengan 0,1, maka hasil perhitungan bisa
dinyatakan benar. (Kusrini, 2007). Dimana RI : random index yang
nilainya dapat dilihat pada table di bawah ini.
Tabel 4.2 Ratio index
N
RI

1
0

2
0

10

0,58

0,90

1,12

1,24

1,32

1,41

1,45

1,49

4.2.4. Contoh Kasus Dengan Metode AHP


Untuk melanjutkan studi setelah lulus tingkat SLTA, terkadang
dihadapkan dengan kebingungan ingin melanjut ke perguruan tinggi mana?,
karena ada beberapa pertimbangan diantaranya biaya kuliah, jarak tempuh,
fasilitas dan mutu perguruan tingginya yang diukur dari segi akreditasi prodi

System Pendukung Keputusan

201

perguruan tinggi. Kualitas bagus tetapi dana tidak memadai akan mengalami
kegagalan, atau sebaliknya dana memadai tetapi tidak sesuai dengan kualitas yang
diiginkan juga terkendala dengan jarak tempuh si mahasiswa dengan lokasi
kampus juga hasilnya tidak maksimal. Disini akan kita implementasikan dengan
metode AHP untuk memilih perguruan tinggi
Adapun langkah-langkahnya sebagai berikut
1. Menentukan kriteria pemilihan perguruan tinggi, dalam hal ini yang
menjadi kriteria adalah biaya kuliah, jarak, fasilitas dan akreditasi
2. Menyusun kriteria dalam bentuk matrix berpasangan yang ditunjukkan
dalam tabel 4.2.
Kriteria

Biaya

Jarak

Fasilitas

Akreditasi

Biaya

Jarak

0,14

Fasilitas

0,2

0,2

Akreditasi

0,33

0,33

Jumlah

1,67

8,53

12

Cara pengisian elemen-elemen matriks pada Tabel 3.1, adalah sebagai


berikut:
a. Elemen a[i,j] = 1, dimana i = 1,2,3,.....n. Untuk penelitian ini, n = 4.
b. Elemen matriks segitiga atas sebagai input.
c. Elemen matriks segitiga bawah mempunyai rumus a[j,i]=
3. Menjumlahkan

kolom

untuk

setiap

kriteria,

[, ]

Untuk i j

contoh

kolom

biaya=1+0,14+0,2+0,33=1,67, dst

4. Membagi setiap elemen pada kolom dengan jumlah per kolom yang
sesuai. Dari nilai-nilai elemen matriks tabel 3.1.
Jumlah masing-masing kolom diatas maka dapat dihitung matriks
normalisasi dengan cara membagi setiap elemen pada kolom dengan
jumlah per kolom yang sesuai, misalnya untuk menghitung matriks
normalisasi pada kolom 1 dan baris 1 maka dapat dihitung sebagai berikut.

System Pendukung Keputusan

202

Kolom baris1=
=

= 0.59
Tabel 4.3 Hasil Matriks Normalisasi
Kriteria

Biaya

Biaya

0,598802 0,820633 0,416667 0,375

2,211102122

Jarak

0,083832 0,117233 0,416667 0,375

0,992732296

Fasilitas

0,11976

0,023447 0,083333 0,125

0,351540471

Akreditasi 0,197605 0,038687 0,083333 0,125

0,444625111

5. Setelah

Jarak

matriks

Fasilitas

normalisasi

Akreditasi

didapatkan,

Jumlah Baris

langkah

selanjutnya

menjumlahkan tiap baris pada matriks tersebut. Jumlah masing masing


baris pada tabel 3.2 dapat dihitung dengan cara sebagai berikut.
Jumlah Baris 1 = 0.4018 + 0.6465 + 0.3479 + 0.3205 + 0.25 + 0.2454 + 0.2142 +
1. 0.2142 = 2.6405, dan seterusnya. Dgd

Setelah didapatkan jumlah pada masing-masing baris, selanjutnya dihitung bobot


masing-masing kriteria dengan cara membagi masing-masing jumlah baris dengan
jumlah elemen atau jumlah kriteria (n = 8), sehingga bobot masing-masing kriteria
dapat dihitung seperti berikut:
1. Bobot Kriteria Harga = 2.6405/8 = 0.3301
Kriteria

Biaya

Jarak

Fasilitas Akredita
si

Biaya

Jarak

Rata-Rata

Baris

0,59880

0,82063

0,41666

0,08383

0,11723

0,41666

0,02344

0,08333

0,11976

0,125

0,19760

0,03868

0,08333

0,125

0,44462511 0,11115627

Fasilitas

Akredita

Jumlah

System Pendukung Keputusan

2,21110212
0,375

0,55277553

0,99273229 0,24818307
0,375

203

0,35154047 0,08788511
8

si

4.3. Metode TOPSIS( Technique For Order Preference by Similarity to


Ideal Solution)
TOPSIS adalah salah satu metode pengambilan keputusan multikriteria
diperkenalkan pertama kali oleh Yoon dan Hwang pada tahun 1981 yang
digunakan sebagai salah satu metode dalam memecahkan masalah multikriteria
(Sachdeva, 2009). TOPSIS memberikan sebuah solusi dari sejumlah alternatif
yang mungkin dengan cara membandingkan setiap alternatif dengan alternatif
terbaik dan alternatif terburuk yang ada diantara alternatif-alternatif masalah.
Metode ini menggunakan jarak untuk melakukan perbandingan tersebut.
TOPSIS telah digunakan dalam banyak aplikasi termasuk keputusan investasi
keuangan, perbandingan performansi dari perusahaan, perbandingan performansi
dalam suatu industri khusus, pemilihan sistem operasi, evaluasi pelanggan, dan
perancangan robot. TOPSIS mempertimbangkan keduanya, jarak terhadap solusi
ideal positif dan jarak terhadap solusi ideal negatif dengan mengambil kedekatan
relatif terhadap solusi ideal positif. Berdasarkan perbandingan terhadap jarak
relatifnya, susunan prioritas alternatif bisa dicapai. Metode ini banyak digunakan
untuk menyelesaikan pengambilan keputusan. Hal ini disebabkan konsepnya
sederhana, mudah dipahami, komputasinya efisien, dan memiliki kemampuan
mengukur kinerja relatif dari alternatif-alternatif keputusan.
TOPSIS mengasumsikan bahwa setiap kriteria akan dimaksimalkan
ataupun diminimalkan. Maka dari itu nilai solusi ideal positif dan solusi ideal
negatif dari setiap kriteria ditentukan, dan setiap alternatif dipertimbangkan dari
informasi tersebut. Solusi ideal positif didefinisikan sebagai jumlah dari seluruh
nilai terbaik yang dapat dicapai untuk setiap atribut, sedangkan solusi ideal negatif
terdiri dari seluruh nilai terburuk yang dicapai untuk setiap atribut. Namun, solusi
ideal positif jarang dicapai ketika menyelesaikan masalah dalam kehidupan nyata.
Maka asumsi dasar dari TOPSIS adalah ketika solusi ideal positif tidak dapat
dicapai, pembuat keputusan akan mencari solusi yang sedekat mungkin dengan
solusi ideal positif.

System Pendukung Keputusan

204

TOPSIS memberikan solusi ideal positif yang relatif dan bukan solusi
ideal positif
yang absolut. Dalam metode TOPSIS klasik, nilai bobot dari setiap kriteria telah
diketahui dengan jelas. Setiap bobot kriteria ditentukan berdasarkan tingkat
kepentingannya

menurut

pengambil

keputusan.

Yoon

dan

Hwang

mengembangkan metode TOPSIS berdasarkan intuisi yaitu alternatif pilihan


merupakan alternatif yang mempunyai jarak terkecil dari solusi ideal
positif dan jarak terbesar dari solusi ideal negatif dari sudut pandang geometris
dengan menggunakan jarak Euclidean (Sachdeva, 2009). Namun, alternatif yang
mempunyai jarak terkecil dari solusi ideal positif, tidak harus mempunyai jarak
terbesar dari solusi ideal negatif. Sehingga TOPSIS mempertimbangkan
keduanya, jarak terhadap solusi ideal positif dan jarak terhadap solusi ideal negatif
secara bersamaan. Solusi optimal dalam metode TOPSIS didapat dengan
menentukan kedekatan relatif suatu alternatif terhadap solusi ideal positif.
TOPSIS akan merangking alternatif berdasarkan prioritas nilai kedekatan relatif
suatu alternatif terhadap solusi ideal positif. Alternatif-alternatif yang telah
dirangking kemudian dijadikan sebagai referensi bagi pengambil keputusan untuk
memilih solusi terbaik yang diinginkan. Metode ini banyak digunakan untuk
menyelesaikan pengambilan keputusan secara praktis. Hal ini disebabkan
konsepnya sederhana dan mudah dipahami, komputasinya efisien, dan memiliki
kemampuan mengukur kinerja relatif dari alternatif-alternatif keputusan.

4.3.1. Langkah-langkah metode TOPSIS


1. TOPSIS diawali dengan membuat sebuah matriks keputusan (Misalkan
matriks X). Matriks keputusan X mengacu terhadap m alternatif yang
akan dievaluasi berdasarkan n kriteria. Matriks keputusan X dapat dilihat
sebagai berikut
x1
1
2
x=

System Pendukung Keputusan

x2

x3

1,1 1,2 1,3


2,1 2,2 2,3

,1 , 2
3
205

xn

1,
2,

dimana ai ( i = 1, 2, 3, . . . , m ) adalah alternatif-alternatif yang mungkin,


xj ( j =1, 2, 3, . . . , n ) adalah atribut dimana performansi alternatif
diukur,
xij adalah performansi alternatif i a dengan acuan atribut xj .
2. Membuat matriks keputusan yang ternormalisasi.
Persamaan yang digunakan untuk mentransformasikan setiap elemen xij
adalah
X=

..(1)

dengan i = 1, 2, 3, . . . , m
j = 1, 2, 3, . . . , n
rij adalah elemen dari matriks keputusan yang ternormalisai R,
xij adalah elemen dari matriks keputusan X.
3. Membuat matriks keputusan yang ternormalisasi terbobot.
Dengan bobot wj= ( w1 ,w2 ,w3 , . . . ,wn ),
dimana wj adalah bobot dari kriteria ke-j dan
normalisasi bobot matriks V adalah

= 1, maka

Vij= Wj. Rij.(2)


dengan i = 1, 2, 3, . . . , m; dan j = 1, 2, 3, . . . , n.
dimana Vij adalah elemen dari matriks keputusan yang ternormalisai
terbobot V,
wj adalah bobot dari kriteria ke-j,
rij adalah elemen dari matriks keputusan yang ternormalisai R.
4. Menentukan matriks solusi ideal positif dan solusi ideal negatif.
Solusi ideal positif dinotasikan A+ , sedangkan solusi ideal negatif
dinotasikan A-. Berikut ini adalah persamaan dari A+ dan A- :
a. A+ ={(max Vij | j J ), (min Vij | j J ), i = 1, 2, 3, . . . , m}
= { V1+, V2+, V3+,.Vn+}..(3)
b. A- ={(min ij v | j J ), (max Vij | j J ), i = 1, 2, 3, . . . , m}
= { V1-, V2-, V3-,.Vn-}....(4)
J = { j = 1, 2, 3, . . . , n dan

System Pendukung Keputusan

206

J merupakan himpunan kriteria keuntungan (benefit criteria)}.


J = { j = 1, 2, 3, . . . , n dan
J merupakan himpunan kriteria biaya (cost criteria)}.
dimana Vij adalah elemen dari matriks keputusan yang
ternormalisai terbobot V
Vj+ ( j =1, 2, 3, . . . , n ) adalah elemen matriks solusi ideal positif,
Vj- ( j =1, 2, 3, . . . , n ) adalah elemen matriks solusi ideal negatif.
5. Menghitung separasi.
a. S+ adalah jarak alternatif dari solusi ideal positif didefinisikan
sebagai:
Si+=

) ,

dengan

i=1,2,3.m..(5)
b. S- adalah jarak alternatif dari solusi ideal negatif didefinisikan
sebagai:
=

Si

i=1,2,3.m..(6)

) ,

dengan

Dimana:
Si+ adalah jarak alternatif ke-i dari solusi ideal positif
Si - adalah jarak alternatif ke-i dari solusi ideal negatif
Vij

adalah elemen dari matriks keputusan yang ternormalisai

terbobot V
Vj+ adalah elemen matriks solusi ideal positif
Vj- adalah elemen matriks solusi ideal negatif

System Pendukung Keputusan

207

6. Menghitung kedekatan relatif terhadap solusi ideal positif.


Kedekatan relatif dari setiap alternatif terhadap solusi ideal positif dapat
dihitung
dengan menggunakan persamaan berikut:
si+=

<=

ci+<=1(7)
dengan i = 1, 2, 3, . . . , m
dimana ci+ adalah kedekatan relatif dari alternatif ke-i terhadap solusi
ideal positif,
si+ adalah jarak alternatif ke-i dari solusi ideal positif,
si- adalah jarak alternatif ke-i dari solusi ideal negatif.
7. Merangking Alternatif.
Alternatif diurutkan dari nilai C+ terbesar ke nilai terkecil. Alternatif
dengan nilai C+ terbesar merupakan solusi yang terbaik.

4.3.2. Contoh Penerapan Metode Topsis


Sistem pendukung keputusan menentukan pegawai dalam satu institusi
dengan kriteria IPK, Psikotest, Wawancara dan Pengalaman kerja. Data
kriteria ditransformasi dengan 1: Kurang
2: Sedang
3: Baik
4: Sangat baik
1. Membangun matriks keputusan, kolom matriks menyatakan atribut sesuai

dengan kriteria-kriteria yang ada, sedangkan baris matriks menyatakan


alternatif calon pegawai yang akan dibandingkan. Matriks keputusan
dapat dilihat pada Tabel 3.2.
Tabel 4.4. Matriks Keputusan Calon Pegawai
Calon

IPK

Psikotest

Wawancara

Pengalaman

X11

X12

X13

X14

Pegawai
A1

System Pendukung Keputusan

208

A2

X21

X22

X3

X24

A3

X31

X32

X33

X34

A4

X41

X42

X43

X44

Pada Tabel 3.1, simbol 11 x ,, 35 x menyatakan performansi alternatif dengan


acuan atribut yaitu data nilai kriteria untuk setiap calon tenaga
pengajar baru.
Jumlah data alternatif yang akan dibandingkan minimal
Tabel 4.5. Matriks Keputusan
Calon

IPK

Psikotest

Wawancara

Pengalaman

Paijo

Tukimin

Karsono

Sarinem

Pegawai

2. Setelah matriks keputusan dibangun, selanjutnya adalah membuat matriks

System Pendukung Keputusan

209

keputusan yang ternormalisasi R yang elemen-elemennya ditentukan dengan


rumus berikut ini:

..(1)

X=

dengan i = 1, 2, 3, . . . , m
j = 1, 2, 3, . . . , n

rij adalah elemen dari matriks keputusan yang ternormalisai R,


xij adalah elemen dari matriks keputusan X.
Tabel 4.5 Matriks Keputusan Ternormalisasi
Calon

IPK

Psikotest

Wawancara

Pengalaman

Pegawai

11

A1
A2

12

13

14

11 + 21 + 31 + 41
21

12 + 22 + 32 + 42
22

13 + 23 + 33 + 43
23

14 + 24 + 34 + 44
24

11 + 21 + 31 + 41

System Pendukung Keputusan

12 + 22 + 32 + 42

13 + 23 + 33 + 43

210

14 + 24 + 34 + 44

Tabel 4.6 Matriks Keputusan Calon Pegawai Ternormalisasi


Calon

IPK

Psikotest

Wawancara

Pengalaman

Paijo

0,6489

0,5222

0,4714

0,5071

Tukimin

0,4867

0,3482

0,7071

0,6761

Karsono

0,4867

0,3482

0,4714

0,5071

Sarinem

0,3244

0,6963

0,2357

0,1690

Pegawai

Setelah menghitung matriks keputusan ternormalisasi, selanjutnya menghitung matriks


keputusan ternormalisasi terbobot. Pemisalan bobot yang dimasukkan untuk setiap kriteria
adalah IPK(0,3), Psikotest(0,1), Wawancara(0,4), Pengalaman(0,2). Hasil perhitungannya dapat
dilihat pada Tabel 3.11.
Tabel 4.7 Matriks Keputusan Ternormalisasi Terbobot
Calon

IPK

Psikotest Wawancara Pengalaman

Pegawai
Paijo

0,19467 0,05222

0,18856

0,10142

Tukimin

0,14601 0,03482

0,28284

0,13522

Karsono

0,14601 0,03482

0,18856

0,10142

Sarinem

0,09732 0,06963

0,09428

0,0338

Setelah matriks keputusan ternormalisasi terbobot telah dihitung, selanjutnya


adalah menentukan matriks solusi ideal positif dan negatif. Penentuan matriks solusi
ideal positif dan negatif dapat dilihat pada Tabel 3.12 dan Tabel 3.13.
Tabel 4.8 Solusi Ideal Positif
A+

0,19467 0,06963 0,28284 0,13522

Tabel 4.9 Solusi Ideal Negatif


A-

0,09732 0,03482 0,09428 0,0338

Selanjutnya menghitung jarak alternatif dari solusi ideal positif ( S+ ) dan jarak alternatif dari
solusi ideal negatif ( S - ). Perhitungan jarak alternatif dari solusi ideal positif ( S
alternatif dari solusi ideal negatif ( S - ) dapat dilihat pada Tabel 4.10 dan 4.11

System Pendukung Keputusan

211

) dan jarak

Tabel 4.10. Separasi Positif


Calon Pegawai

S+

Paijo

0,1017

Tukimin

0,0598

Karsono

0,1167

Sarinem

0,2352

Tabel 4.11. Separasi Negatif


Calon Pegawai

S-

Paijo

0,1524

Tukimin

0,2196

Karsono

0,1258

Sarinem

0,0348

Selanjutnya menghitung kedekatan relatif terhadap solusi ideal positif C+ .


Pada Tabel 4.11 dapat dilihat perhitungan kedekatan relatif terhadap solusi ideal positif.
Tabel 4.12 Nilai C+
Calon Pegawai

C+

Paijo

0,5998

Tukimin

0,7860

Karsono

0,5188

Sarinem

0,1289

Selanjutnya mengurutkan alternatif dari nilai C+ terbesar hingga nilai C+ terkecil. Pengurutan
alternatif dapat dilihat pada Tabel 4.13

Tabel 4.13 Pengurutan Alternatif


System Pendukung Keputusan

212

Calon Pegawai

C+

Tukimin

0,786

Paijo

0,5998

Karsono

0,5188

Sarinem

0,1289

Pada Tabel 4.13, dapat dilihat bahwa alternatif yang menempati urutan
pertama yaitu calon tenaga pengajar baru dengan nama Poppy memiliki nilai 0.6464, alternatif
yang menempati urutan kedua yaitu calon tenaga pengajar baru dengan nama Wiwi memiliki
nilai 0.5356, dan alternatif yang menempati urutan terakhir adalah calon tenaga pengajar baru
dengan nama Melisa memiliki nilai 0.3218. Berdasarkan hasil pengurutan, maka pilihan terbaik
adalah calon tenaga pengajar baru dengan nama Poppy.

4.4. Metode Weighted Product (WP)


Metode weighted product memerlukan proses normalisasi karena metode ini mengalikan
hasil penilaian setiap atribut. Hasil perkalian tersebut belum bermakna jika belum dibandingkan
(dibagi) dengan nilai standart. Bobot untuk atribut manfaat berfungsi sebagai pangkat positif
dalam proses perkalian, sementara bobot biaya berfungsi sebagai pangkat negative.
menggunakan perkalian untuk menghubungkan rating atribut, dimana rating setiap atribut harus
dipangkatkan dulu dengan bobot atribut yang bersangkutan. Proses ini sama halnya dengan
proses normalisasi.
Metode weighted product menggunakan perkalian untuk menghubungkan rating atribut,
dimana rating setiap atribut harus dipangkatkan dulu dengan bobot yang bersangkutan. Proses ini
sama halnya dengan proses normalisasi. Preferensi untuk alternative Si diberikan sebagai berikut
:
si=

wi

dimana :
S : Preferensi alternatif dianologikan sebagai vektor S
X : Nilai kriteria
W : Bobot kriteria/subkriteria

System Pendukung Keputusan

213

i : Alternatif
j : Kriteria
n : Banyaknya kriteria
dimana wj 1 . Wj adalah pangkat bernilai positif untuk atribut keuntungan dan bernilai negatif
untuk atribut biaya. Preferensi relatif dari setiap alternatif diberikan sebagai :

Vi=

dimana :

V : Preferensi alternatif dianalogikan sebagai vektor V


X : Nilai Kriteria
W : Bobot kriteria/subkriteria
i : Alternatif
j : Kriteria
n : Banyaknya kriteria
* : Banyaknya kriteria yang telah dinilai pada vektor S

4.5.3. Contoh Kasus Dengan Metode WP


Untuk melanjutkan studi setelah lulus tingkat SLTA, terkadang dihadapkan dengan
kebingungan ingin melanjut ke perguruan tinggi mana?, karena ada beberapa pertimbangan
diantaranya biaya kuliah, jarak tempuh, fasilitas dan mutu perguruan tingginya yang diukur dari
segi akreditasi prodi perguruan tinggi. Kualitas bagus tetapi dana tidak memadai akan
mengalami kegagalan, atau sebaliknya dana memadai tetapi tidak sesuai dengan kualitas yang
diiginkan juga terkendala dengan jarak tempuh si mahasiswa dengan lokasi kampus juga
hasilnya tidak maksimal. Disini akan kita implementasikan dengan metode AHP untuk memilih
perguruan tinggi
Ada 3 lokasi yang akan menjadi alternatif, yaitu:
A1 = STMIK A,
A2 = STMIK B,
A3 = STMIK C,
A4=STMIK D;

System Pendukung Keputusan

214

Ada 5 kriteria yang dijadikan acuan dalam


pengambilan keputusan, yaitu:
C1 = Biaya,
C2 = Jarak
C3 = Fasilitas
C4 = Akreditasi
Tingkat kepentingan Biaya dinilai dengan 1 sampai 5, yaitu:
1 = Sangat Murah,
2 = Murah,
3 = ,Sedang
4 = Mahal,
5 = Sangat Mahal.
Tingkat kepentingan Jarak dinilai dengan 1 sampai 4, yaitu:
1 = Dekat,
2 = Sedang,
3 = jauh
4 = Sanga jauh.
Tingkat kepentingan Fasilitas dinilai dengan 1 sampai 4, yaitu:
1 = Kurang Lengkap,
2 = Sedang,
3 = Lengkap
4 = Sanga Lengkap.
Tingkat kepentingan Akreditasi dinilai dengan 1 sampai 3, yaitu:
1 = Cukup,
2 = Baik,
3 = Sangat baik.

Pengambil keputusan memberikan bobot preferensi sebagai: W = (3,2,4,3)


Untuk menetapkan STMIK unggulan daerah ada kriteria tertentu, sistem penskala-an terhadap
variable kriteria unggulan. Sistem penskla-an tiap variabel ini didasarkan pada nilai interval
masing-masing kelompok (sub sektor) dengan kisaran nilai dari 1 sampai 5. Sementara untuk

System Pendukung Keputusan

215

data yang bukan berupa angka, pensklaan dilakukan dengan sistem strata. Masing-masing
kriteria (variabel) memiliki bobot yang berbeda-beda disesuaikan dengan tingkat sumbangan
kriteria terhadap produk unggulan
Tabel 4.14. Nilai dan Bobot Kriteria
No

Kriteria

Kriteria

Nilai

Bobot

Biaya

A1

0,25

Jarak

A2

0,167

Fasilitas

A3

0,333

Akreditasi

A4

0,25

w = 0,25 + 0,167 + 0,333 + 0,25 = 1


Kriteria Keuntungan : Fasilitas(A3), Akreditasi(A4)
Kriteria Biaya : Biaya kuliah(A1), Jarak(A2)
Alternatif PT

Kriteria
A1

A2

A3

A4

STMIK-A

STMIK-B

STMIK-C

STMIK-D

Perhitungan Vektor
STMIK-A=(5-0,25)(4-0,167)(40,333)(30,25)=1,1078
STMIK-B=(3-0,25)(3-0,167)(30,333)(20,25)=1,0844
STMIK-C=(2-0,25)(3-0,167)(20,333)(10,25)=0,8817
STMIK-D=(4-0,25)(2-0,167)(30,333)(20,25)=1,0798
Alternatif PT

Perhitungan
Vektor

STMIK-A

1,1078

STMIK-B

1,0844

STMIK-C

0,8817

STMIK-D

1,0798

System Pendukung Keputusan

216

Nilai Vektor
STMIK-A=
STMIK-B=
STMIK-C=
STMIK-D=

,
,

=0,2667
=0,2611
=0.2123
=0.2600

Nilai terbesar ada pada STMIK A sehingga alternatif STMIK A adalah


alternatif yang terpilih sebagai STMIK Terbaik.

4.6. Metode Simple Additive Weighting (SAW)


Metode SAW sering juga dikenal istilah metode penjumlahan terbobot. Konsep dasar
metode SAW adalah mencari penjumlahan terbobot dari rating kinerja pada setiap alternatif pada
semua atribut. Metode SAW membutuhkan proses normalisasi matriks keputusan (X) ke suatu
skala yang dapat diperbandingkan dengan semua rating alternatif yang ada.
Rating kinerja ternormalisasi dengan menggunakan rumus sebagai berikut

Rij=

Jika j adalah atribut keuntungan


(benefit)
Jika j adalah atribut biaya (cost)

Di mana:
rij= rating kinerja ternormalisasi.
maxi= nilai maksimum dari setiap baris dan kolom.
Min i= nilai minimum dari setiap baris dan kolom.
xij= baris dan kolom dari matriks.
(rij) adalah rating kinerja ternormalisasi dari alternatif Ai pada atribut Cj=1,2,...,m dan j=1,2,...,n.

System Pendukung Keputusan

217

Nilai preferensi untuk setiap alternatif diberikan sebagai:

Vi=

Dimana:
vi= Nilai akhir dari alternatif
wi= Bobot yang telah ditentukan
rij= Normalisasi matriks
Nilai viyang lebih besar mengindikasikan bahwa Ai alternatif lebih terpilih

4.6.1.

Analisis Pemecahan Masalah dengan Metode SAW

Langkah-langkah pemecahan masalah dengan metode SAW sebagai berikut:


1. Menentukan kriteria-kriteria yang akan dijadikan acuan dalam pengambilan keputusan,
yaitu Ci .
2. Menentukan rating kecocokan setiap alternatif pada setiap kriteria.
3. Membuat matriks keputusan berdasarkan kriteria (Ci), kemudian melakukan normalisasi
matriks berdasarkan persamaan yang disesuaikan dengan jenis atribut (atribut keuntungan
ataupun atribut biaya) sehingga diperoleh matriks ternormalisasi R.
4. Hasil akhir diperoleh dari proses perankingan yaitu penjumlahan dari perkalian matriks
ternormalisasi R dengan vektor bobot sehingga diperoleh nilai terbesar yang dipilih
sebagai alternatif terbaik (Ai) sebagai solusi. Nilai preferensi untuk setiap alternatif (Vi)
dapat menggunakan persamaan 2.2. Nilai Vi yang lebih besar mengindikasikan bahwa
alternatif Ai lebih terpilih.

Contoh kasus

System Pendukung Keputusan

218

Diperguruan tinggi ada beasiswa, dari sekian banyak mahasiswa terdapat beberapa mahasiswa
yang memenuhi kriteria. Maka untuk memutuskan siapa saja yang tepat menerima beasiswa
dibuthkan satu metode dengan metode SAW agar pemberian beasiswa lebih adil.

1. Menentukan kriteria-kriteria yang akan dijadikan acuan dalam pengambilan keputusan, yaitu .
Dalam metode penelitian ini ada bobot dan kriteria yang dibutuhkan untuk menentukan siapa
yang akan terseleksi sebagai penerima beasiswa.
Adapun kriteria dalam penelitian ini adalah:
C1 = Penghasilan Orang Tua
C2 = Tanggungan Orang Tua
C3 = IPK
C4 = Kehadiran
C5 = attitude

2. Menentukan rating kecocokan setiap alternatif pada setiap kriteria.

a. Variabel penghasilan orang tua dikonversikan dengan bilangan fuzzy dibawah ini.
Tabel 3.1 Penghasilan Orang Tua
Penghasilan orang tua(Y)

Nilai

>5.000.000

>3.000.000 dan <=5.000.000

0,75

>1.500.000 dan <=3.000.000

0,50

>1.000.000 dan <=1.500.000

0,25

<=1.000.000

b. Variabel tanggungan orang tua dikonversikan dengan bilangan fuzzy dibawah ini.
Tabel 3.2 Tanggungan Orang Tua
Tanggungan orang tua (Y)

System Pendukung Keputusan

219

Nilai

>4

0,75

0,50

0,25

c. Variabel IPK dikonversikan dengan bilangan fuzzy dibawah ini.

c.

a.

IPK

Nilai

>3 dan <=4

>2.75 dan <=3

0,75

>2 dan <=2,75

0,50

>1 dan <=2

0,25

>0 dan <=1

Variabel Kehadiran dikonversikan dengan bilangan fuzzy dibawah ini.


Kehadiran

Nilai

>80% dan <=100%

>70% dan <=80%

0,5

<70%

Variabel attitude dikonversikan dengan bilangan fuzzy dibawah ini.


Kehadiran

Nilai

Baik

Sedang

0,5

Kurang

3. Membuat matriks keputusan berdasarkan kriteria (Ci), kemudian melakukan normalisasi


matriks berdasarkan persamaan yang disesuaikan dengan jenis atribut (atribut keuntungan
ataupun atribut biaya) sehingga diperoleh matriks ternormalisasi R.

System Pendukung Keputusan

220

Contoh hasil penginputan dari pemohon beasiswa. Dimana data-data yang dimasukan sesuai
dengan data yang sebenarnya dan sesuai dengan kriteria yang sudah ditentukan melalui proses
perhitungan.

Tabel 3.6 Masukan Data Awal Siswa Calon Penerima Beasiswa


No

NPM

Penghailan Tanggungan IPK


Oranhg

kehadiran attitude

Orang Tua

tua
1

10001

3.000.000

3,0

80%

Baik

10002

3.500.000

2,5

70%

Baik

10003

4.000.000

2,7

75%

Kurang

10004

1.000.000

3.2

78%

Sedang

Tabel 3.7 Masukan Data Siswa Calon Penerima Beasiswa


No

NPM

Penghailan Tanggungan IPK


Oranhg

kehadiran attitude

Orang Tua

tua
1

10001

0,50

0,50

10002

0,75

0,50

0,5

0,5

10003

0,75

0,75

0,5

0,5

10004

0,25

0,5

0,5

Pengambil keputusan memberikan bobot untuk setiap kriteria sebagai berikut: C1 = 30%; C2 =
20%; C3 = 20%; C4 = 15%, C5=15%

Perhitungan normalisasi
R11=

{ ,

; ,

; ,

; }

,
,

System Pendukung Keputusan

=0,667

221

R12=
R13=
R14=
R15=
R21=
R22=
R23=
R24=
R25=

R31=
R32=
R33=
R34=
R35=
R41=
R42=
R43=
R44=

{ ,

,
; ,

; ,

{ ; , ; , ; }

; ,

{ ,
{ ,

,
; ,
,
; ,

= =1
; }

; ,

; ,

,
{ ; , ; , ; }

,
{ ; , ; , ; , }

{ ,
{ ,

,
; ,
,
; ,

{ ,

; ,
,
; ,

; }

; ,

; ,

{ ; ; ; , }

,
,

; ,

; }

; ,

; ,

=0,667

=0,5

,
,

,
,

=1

=1

=0,5

= =1

,
{ ; , ; , ; , }

,
,

=0,667

=0,5

= =0

{ ; , ; , ; }

=0,667

=0,5

; ,

,
{ ; , ; , ; , }

{ ,

= =1

,
{ ; , ; , ; }

,
,

= =1

; ,

{ ; ; ; , }

= =1

{ ; , ; , ; , }
{ ; ; ; , }

,
,

=0

=0,333

=0,5

System Pendukung Keputusan

222

R45=

,
{ ; ; ; , }

=0,5

0,667
0,667
Hasil normalisasi=
1
0

0,667
0,667
1
0,33

1
1
1
0,5 0,5 1
0,5 0,5 0
1 0,5 0,5

Pengambil keputusan memberikan bobot untuk setiap kriteria sebagai berikut:


C1 = 30%=0,3
C2 = 20%=0,2
C3 = 20%=0,2
C4 = 15%,=0,15
C5=15%=0,15
W=(0,3|0,2| 0,2| 0,15| 0,15)
Hasil yang diperoleh sebagai berikut:
V1=(0,667*0,3)+( 0,667*0,2)+( 1*0,2)+( 1*0,15)+( 1*0,15)=0,8335
V2=(0,667*0,3)+( 0,667*0,2)+( 0,5*0,2)+( 0,5*0,15)+( 1*0,15)=0,6585
V3=(1*0,3)+( 1*0,2)+( 0,5*0,2)+( 0,5*0,15)+( 0*0,15)=0,6750
V4=(0*0,3)+( 0,33*0,2)+( 1*0,2)+( 0,5*0,15)+( 0,5*0,15)=0,4160
4. Dari perhitungan diatas didapat V1 merupakan nilai terbesar sehingga diperoleh alternatif
adalah alternatif yang terpilih sebagai alternatif terbaik. Dengan kata lain Anton akan berada
diurutan pertama dalam daftar penerima beasiswa.
No

NPM

Penghailan Tanggungan IPK


Oranhg

kehadiran attitude

Orang Tua

Hasil
Akhir

tua
1

10001

3.000.000

System Pendukung Keputusan

3,0

223

80%

Baik

0,8335

10002

3.500.000

2,5

70%

Baik

0,6585

10003

4.000.000

2,7

75%

Kurang

0,6750

10004

1.000.000

3.2

78%

Sedang

0,4160

4.6.Studi Kasus
Dalam

jurnalnya

dengan

Sistem

Pendukung

Keputusan

Penentuan

Prioritas

Pengembangan Industri Kecil Menengahdengan Metode Weightedproduct (Studi Kasus dinas


Koperasi, Ukm,Perindustrian Dan Perdagangan Kota Binjai) oleh Relita Buaton, Yani Maulita
Akim Pardede dan Raodah), dengan manfaat penelitian tersedianya tool sebagai pendukung
keputusan dalam membantu pimpinan mengambil keputusan berdasarkan prioritas industri kecil
menengah yang dihasilkan oleh sistem sehingga dapat menghasilkan solusi yang lebih cepat
untuk menentukan prioritas pengembangan industri kecil menengah di Kota Binjai
1. Analisis Dengan Perhitungan Metode Weighted Product
Banyaknya kriteria yang sama dalam penilaian menyulitkan instansi pemerintah untuk
mengambil suatu keputusan dalam menentukan prioritas pengembangan indutri kecil menengah,

System Pendukung Keputusan

224

Jumlah sampel jenis industri anyaman bambu di Kecamatan Binjai Timur 67 industri. Kriteria
penilaian yang digunakan untuk perhitungan adalah sebagai berikut.
C1 = Nilai Investasi (Kriteria Biaya)
C2 = Kapasitas Produksi (Kriteria Keuntungan)
C3 = Nilai Produksi (Kriteria Keuntungan)
C4 = Nilai Bahan Baku (Kriteria Biaya)
C5 = Tenaga Kerja (Kriteria Biaya)
Tingkat kepentingan setiap kriteria, juga dinilai dengan 1 sampai 5, yaitu :
1= Sangat Rendah
2 = Rendah
3 = Sedang
4 = Tinggi
5 = Sangat Tinggi
Bobot preferensi dalam pengambilan keputusan, yaitu :W = (5, 3, 4, 4, 2 )
Langkah langkah yang dilakukan untuk menentukan prioritas pengembangan industri
kecil menengah adalah sebagai berikut :
A. Penentuan Nilai Bobot dan Kriteria
1. Nilai Investasi (-)

Tabel 1.Bobot Kriteria Nilai Investasi


Nilai investasi

Variabel

Nilai
bobot

50.000

Sangat

Rendah
50.000 s/d 1.000.000
1.000.000

Rendah

s/d Sedang

s/d Tinggi

3.000.000
3.000.000

System Pendukung Keputusan

225

7.000.000.
7.000.000

Sangat

Tinggi

2. Kapasitas Produksi (+)


Tabel 2. Bobot Kriteria Kapasitas Produksi
Kapasitas produksi

Variabel

Nilai
Bobot

< 290

Sangat

Rendah
290 s/d 1.095

Rendah

1.095 s/d 5.800

Sedang

5.800 s/d 10.950

Tinggi

10.950

Sangat

Tinggi
3. Nilai Produksi (+)
Tabel 3.Bobot Kriteria Nilai Produksi
Nilai produksi

Variabel

Nilai
bobot

< 2.400.000

Sangat

Rendah
2.400.000

s/d Rendah

s/d Sedang

s/d Tinggi

Sangat

10.150.000
10.150.000
25.375.000
25.375.000
49.920.000.
49.920.000

System Pendukung Keputusan

226

Tinggi
4. Nilai Bahan Baku (-)
Tabel 4.Bobot Kriteria Nilai Bahan Baku
Nilai bahan baku

Variabel

Nilai
bobot

< 1.536.000

Sangat

Rendah
1.536.000

s/d Rendah

s/d Sedang

s/d Tinggi

Sangat

5.800.000
5.800.000
26.000.000
26.000.000
58.400.000.
58.400.000

Tinggi

5. Tenaga Kerja (-)


Tabel 5.Bobot Kriteria Tenaga Kerja
Tenaga

Variabel

kerja
<1

Nilai
bobot

Sangat

Rendah
1 s/d 5

Rendah

5 s/d 10

Sedang

10 s/d 20

Tinggi

20

Sangat

Tinggi

B. Nilai setiap alternatif disetiap kriteria


System Pendukung Keputusan

227

Tabel 6.Nilai Alternatif Setiap Kriteria


Alternatif

Kriteria
C1

C2

C3

C4

C5

JAMALUDDIN

JAINAB

JARNIAH

DELPITA YUNI

HARNISA

SITI AISYAH

SUJINAH

PUSTIMA

SITI SAFRAH

WAHYU SYAHPUTRA

LUKMAN HAKIM

SANTIUNG

SAPARUDDIN

RUSLIAH / BAHARUDDIN

NANI ARIANI

SITI ZAHARA

SAFRIL LUBIS

RAHMAYANI

DIAN RATIH RAHAYU

SURYA DARMA

ANITA DEWI

SURIANI

IRAWADI

ERNAWATI

NURMAYANA

SUDI HARTONO

BAHTIAR

System Pendukung Keputusan

228

ABDUL RAHMAN

WAHYUDI

ZURAIDAH

NJO

LUKMAN EFENDI

ABDULLAH

SURATMAN

MARIANA

ZULKIFLI

SYARIFUDDIN

MAHYUDIN SYAHRI LBS

MAHYAR

PLENGKI BAMBU "TUGIMIN"

PLENGKI BAMBU "TUKIJO"

PLENGKI BAMBU " SUHERMAN 4

"DEDI 4

"WAK 4

BAMBU 3

"BU 2

HSB"
PLENGKI

BAMBU

SETIAWAN"
KERANJANG

BAMBU

ADI"
KERAJINAN
"MAISAROH"
KERANJANG

TAUCO

RAHAYU"
KERANJANG TAUCO "BU SARI"

3 CK HANDICRAFT

TAJUDIN

ERDIANTO

M.TAHIR NAWI

PONIRAN

System Pendukung Keputusan

229

MULYONO

DIWAR

MARLINA

BUNGA MATAHARI

AHMAD

INDRAWAN

ADI SUCIPTO

YUSLIANTI

RAHMAD SYAHPUTRA

KERIYONO

SUYETNO WARSITO

SUJONO

ADAHAM

BUDI KLAMA

NONI

C. Penentuan Bobot
Bobot W =5, 3, 4, 4, 2
Kriteria Biaya ( - ) = C1, C4, C5
Kriteria Keuntungan ( + ) = C2, C3
W = 1
W1 =

= 0, 28

W2 =

= 0, 17

W3 =

= 0,22

W4 =

= 0,22

W5 =

= 0,11

A. Penghitungan Vektor S

Si

x
j 1

System Pendukung Keputusan

wj
ij

230

Penilaian Vektor S dapat dihitung sebagai berikut :


S1= (2 -0,28)(4 0,17)(5 0,22) (3 -0,22) (1 -0,11) = (0,8236) (1,2657)(1,4249)(0,7853)(1)
= 1,1665
S2 = (2 -0,28)(3 0,17)(5 0,22) (3 -0,22) (2 -0,11)= (0,8236) (1,2053)(1,4249)(0,7853)(0,9266)
= 1.0292
S3= (2 -0,28)(40,17)(5 0,22) (3 -0,22) (2 -0,11)= (0,8236) (1,2657)(1,4249)(0,7853)(0,9266)
= 1,0808
S4 = (2 -0,28)(40,17)(40,22) (3 -0,22) (2 -0,11)= (0,8236) (1,2657)(1,3566)(0,7853)(0,9266)
= 1.0290
S5= (1-0,28)(20,17)(10,22) (1-0,22) (1-0,11)= (1) (1,1250)(1)(1)(1) = 1,1251
S6= (3-0,28)(20,17)(50,22) (4-0,22) (1-0,11)= (0,7352) (1,1250)(1,4249)(0,7371)(1)
= 0,8688
S7= (1-0,28)(30,17)(20,22) (2-0,22) (1-0,11)= (1) (1,2053)(1,1647)(0,8586)(1) = 1,2053
S8= (1-0,28)(30,17)(20,22) (2-0,22) (2 -0,11)= (1) (1,2053)(1,1647)(0,8586)(0,9266)
= 1,1169
S9= (1-0,28)(20,17)(20,22) (2-0,22) (1-0,11)= (1) (1,1250)(1,1647)(0,8586)(1) = 1,1251
S10= (2 -0,28)(20,17)(50,22) (4-0,22) (2 -0,11)= (0,8236) (1,1250)(1,4249)(0,7371)(0,9266)
= 0,9018
S11= (3-0,28)(20,17)(50,22) (4-0,22) (2 -0,11)

= ,7352)(1,1250)(1,4249)(0,7371)(0,9266) =

0,805
S12 = (1-0,28)(20,17)(30,22) (2-0,22) (2 -0,11)= (1) (1,1250)(1,2734)(0,8586)(0,9266)
= 1,1397
S13 = (3-0,28)(30,17)(50,22) (3-0,22) (2 -0,11)=(0,7352)(1,2053)(1,4249)(0,7853)(0,9266)
= 0,9188
S14 = (3-0,28)(20,17)(50,22) (4-0,22) (2 -0,11) =(0,7352)(1,1250)(1,4249)(0,7371)(0,9265)
= 0,805
S15 = (1-0,28)(30,17)(20,22) (2-0,22) (2 -0,11)= (1) (1,2053)(1,1647)(0,8586)(0,9266)
= 1,1169
S16= (2 -0,28)(40,17)(20,22) (3-0,22) (1-0,11)= (0,8236) (1,2657)(1,1647)(0,7853)(1)
= 0,9535
S17= (4-0,28)(3 0,17)(50,22) (4-0,22) (2 -0,11)= (0,6783)(1,2053)(1,4249)(0,7371)(0,9266)
System Pendukung Keputusan

231

= 0,7957
S18 = (3-0,28)(30,17)(50,22) (4-0,22) (3-0,11)= (0,7352)(1,2053)(1,4249)(0,7371)(0,8862)
= 0,8248
S19 = (2 -0,28)(20,17)(50,22) (4-0,22) (2 -0,11)= (0,8236)(1,1250)(1,4249)(0,7371)(0,9266)
= 0,9018
S20 = (2 -0,28)(20,17)(40,22) (3-0,22) (1-0,11)= (0,8236) (1,1250)(1,3566)(0,7853)(1)
= 0,9871
S21 = (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,3566)(0,7853)(0,9266)
= 0,9147
S22 = (1-0,28)(20,17)(20,22) (2-0,22) (1-0,11)= (1) (1,1250)(1,1647)(0,8586)(1)
= 1.1250
S23 = (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,3566)(0,7853)(0,9266)
= 0,9147
S24 = (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,3566)(0,7853)(0,9266)
= 0,9147
S25 = (2 -0,28)(20,17)(30,22) (3-0,22) (1-0,11)= (0,8236) (1,1250)(1,2734)(0,7853)(1)
= 0,9266
S26 = (4-0,28)(20,17)(50,22) (5-0,22) (2 -0,11)= (0,6783)(1,1250)(1,4249)(0,7018)(0,9266)
= 0,7071
S27 = (2 -0,28)(10,17)(20,22) (2-0,22) (2 -0,11)= (0,8236) (1)(1,1647)(0,8586)(0,9266)
= 0,7631
S28 = (2 -0,28)(40,17)(40,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,3566)(0,8586)(0,9266)
= 1,1251
S29 = (2 -0,28)(30,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1.2053)(1,3566)(0,7853)(0,9266)
= 0,9799
S30 = (2 -0,28)(30,17)(20,22) (3-0,22) (2 -0,11)= (0,8236)(1,2053)(1,1647)(0,7853)(0,9266)
= 0,8413
S31 = (2 -0,28)(40,17)(40,22) (3-0,22) (3-0,11)= (0,8236)(1.2657)(1,3566)(0,7853)(0,8862)
= 0,9842
S32 = (3-0,28)(30,17)(40,22) (3-0,22) (3-0,11)= (0,7352)(1,2053)(1,3566)(0,7853)(0,8862)
= 0,8366

System Pendukung Keputusan

232

S33 = (2 -0,28)(20,17)(20,22) (2-0,22) (2 -0,11)= (0,8236)(1,1250)(1,1647)(0,8586)(0,9266)


= 0,8585
S34 = (2 -0,28)(40,17)(30,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,2734)(0,8586)(0,9266)
= 1,0561
S35 = (2 -0,28)(40,17)(40,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,3566)(0,8586)(0,9266)
= 1,1251
S36 = (2 -0,28)(40,17)(30,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,2734)(0,8586)(0,9266)
= 1,0561
S37 = (2 -0,28)(20,17)(30,22) (2-0,22) (3-0,11)= (0,8236)(1,1250)(1,2734)(0,8586)(0,8862)
= 0,8977
S38 = (2 -0,28)(30,17)(50,22) (3-0,22) (2 -0,11)= (0,8236)(1,2053)(1,4249)(0,7853)(0,9266)
= 1,0292
S39 = (2 -0,28)(20,17)(30,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,2734)(0,7853)(0,9266)
= 0,8585
S40 = (3-0,28)(50,17)(50,22) (5-0,22) (2 -0,11)= (0,7352)(1,3147)(1,4249)(0,7018)(0,9266)
= 0,8956
S41 = (4-0,28)(50,17)(50,22) (5-0,22) (2 -0,11)= (0,6783)(1,3147)(1,4249)(0,7018)(0,9266)
= 0,8263
S42 = (4-0,28)(50,17)(50,22) (5-0,22) (3-0,11)= (0,6783)(1,3147)(1,4249)(0,7018)(0,8862)
= 0,7903
S43= (4-0,28)(50,17)(50,22) (4-0,22) (4-0,11)= (0,6783) (1,3147)(1,4249)(0,7371)(0,8586)
= 0,8042
S44 = (4-0,28)(50,17)(50,22) (5-0,22) (4-0,11)=(0,6783) (1,3147)(1,4249)(0,7018)(0,8586)
= 0,7657
S45= (3-0,28)(50,17)(50,22) (4-0,22) (2 -0,11)= (0,7352)(1,3147)(1,4249)(0,7371)(0,9266)
= 0,9407
S46 = (2 -0,28)(50,17)(30,22) (3-0,22) (2 -0,11)= (0,8236)(1,3147)(1,2734)(0,7853)(0,9266)
= 1,0033
S47= (2 -0,28)(40,17)(30,22) (3-0,22) (2 -0,11)= (0,8236)(1,2657)(1,2734)(0,7853)(0,9266)
= 0,9659
S48= (5-0,28)(40,17)(50,22) (5-0,22) (2 -0,11)= (0,6372)(1,2657)(1,4249)(0,7018)(0,9266)
= 0,7473
S49= (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1.1250)(1,3566)(0,7853)(0,9266)
= 0,9146
S50= (2 -0,28)(20,17)(50,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,4249)(0,7853)(0,9266)
= 0,9607
System Pendukung Keputusan

233

S60= (3-0,28)(30,17)(20,22) (2-0,22) (2-0,11)=(0,7352)(1,2053)(1,1647)(0,8586)(0,9266)


= 0,8211
S61 = (3-0,28)(30,17)(20,22) (2-0,22) (2-0,11)= (0,7352)(1,2053)(1,1647)(0,8586)(0,9266)
= 0,8211
D.
Penghitungan Vektor V
n

j1
n

j1

ij

*
ij

Nilai Vektor V dapat digunakan sebagai perangkingan, nilai Vektor V dapat dihitung
sebagai berikut :
S1=1,1665/(1,1665 + 1.0292 + 1,0808 + 1,0292 + 1,1251 + 0,8688 + 1,2053 + 1,1169 +
1,1251 + 0,8688 + 1,2053 + 1,1169 + 1,1251 + 0,9018 + 0,805 + 1,1397 + 0,9188 +
0,805 + 1,1169 + 0,9535 + 0,7957 + 0,8248 + 0,9018 + 0,9871 + 0,9147 + 1,1251 +
0,9147 + 0,9266 + 0,7071 + 0,7631 + 1,1251 + 0,9799 + 0,8413 + 0,9842 + 0,8366 +
0,8586 + 1,0561 + 1,1251 + 1,0561 + 0,8977 + 1,0292 + 0,8586 + 0,8956 + 0,8263 +
0,7903 + 0,8042 + 0,7656 + 0,9407 + 1,0033 + 0,9659 + 0,7474 + 0,9146 + 0,9607 +
0,9661 + 0,8211 + 0,7657 + 0,8299 + 0,9407 + 0,7608 + 0,8299 + 0,7664 + 0,8862 +
0,8211 + 0,8211 + 0,8624 + 0,7797 + 0,8366 + 0,6849 + 0,9147 + 0,3148)
,
V1 = , = 0,0189
Tabel 7. Hasil Perhitungan Vektor
Vektor
V1
V2
V3
V4
V5
V6
V7
V8
V9
V10
V11
V12
V13
V14
V15
V16
V17
V18
V19

System Pendukung Keputusan

Hasil
0,0189
0,0166
0,0175
0.0166
0,0182
0,0141
0,0195
0,0181
0,0182
0,0146
0,0130
0,0184
0,0148
0,0130
0,0180
0,0154
0,0128
0,0133
0,0146

Vektor
V35
V36
V37
V38
V39
V40
V41
V42
V43
V44
V45
V46
V47
V48
V49
V50
V51
V52
V53
234

Hasil
0,0182
0,0171
0,0145
0,0166
0,0139
0,0145
0,0133
0,0128
0,0130
0,0124
0,0152
0,0162
0,0156
0,0121
0,0148
0,0155
0,0156
0,0133
0,0124

V20
0,0159
V54
0,0134
V21
0,0148
V55
0,0152
V22
0,0182
V56
0,0123
V23
0,0148
V57
0,0134
V24
0,0148
V58
0,0124
V25
0,0150
V59
0,0143
V26
0,0114
V60
0,0133
V27
0,0123
V61
0,0133
V28
0,0182
V62
0,0139
V29
0,0158
V63
0,0126
V30
0,0136
V64
0,0135
V31
0,0159
V65
0,0110
V32
0,0135
V66
0,0148
V33
0,0139
V67
0,0213
V34
0,0171
Berdasarkan hasil akhir dari perhitungan metode weighted product, maka didapat hasil
perangkingan dengan nilai tertinggi ada pada V67,nama alternatif Noni adalah alternatif
terpilih sebagai terbaik. Dengan kata lain Noni sebagai prioritas industri kecil menengah untuk
jenis industri anyaman bambu di Kota Binjai.

System Pendukung Keputusan

235

DAFTAR PUSTAKA

Arif Hermawan, 2006, Jaringan Syaraf Tiruan(Teori dan Aplikasi), Yogyakarta: Andy.
Budi Santoso, 2007a, Data Mining (Teknik Pemanfaatan Data Untuk Keperluan Bisnis),
Yogyakarta: Graha Ilmu.
Budi Santoso,2007b, Data Mining Terapan Dengan Matlab, Yogyakarta: Graha Ilmu.
Box, G.E.P. dan Tiao, G.C., 1973, Bayesian Inference In Statistical Analysis, AddisionWesley Publishing Company, Inc: Philippines.
Chouchoulas, A., 1999, A Rough Set Approach To Text Classification, The University Of
Edinburgh.
Daihani., Dadan Umar,2001. Komputerisasi Pengambilan Keputusan. Jakarta: Elex Media
Komputindo.
Davies, Paul Beynon, 2004, Database Systems Third Edition, New York: Palgrave Macmillan.
Eko Prasetyo (2012), Data Mining (Konsep dan Aplikasi Menggunakan Matlab), Yogyakarta:
Andy.
Gaber, M. M (2010), Scientific Data Mining and Knowledge Discovery, London: Springer.
Galindo-Garre, F dan Vermunt, J. K. 2004. Bayesian Posterior Estimation of Logit Parameters
With Small Samples. Jurnal. Sage Publication: Netherlands.
Jiawei Han., Kamber, M(2000), Data Mining (Concepts and Techniques), Canada: Morgan
Kaufimann.
Kantardzic, M., Wiley, J.(2003), Data Mining (Concepts, Models, Method and Algorithms),
University Of Louisville.
Kuazril.

2005.

Sistem

Pendukung

Keputusan

dengan

Analytical

Process.www.efka.utm.my/thesis/images/4MASTER/2005/2jsb

Hierarchy
P/Part/

KUAZRILRIDZHIEMA031175D05TT8.doc. Diakses tanggal: 25 Februari 2011.


System Pendukung Keputusan

236

Kusrini. 2006. Sistem Pakar Teori dan Aplikasi. Edisi ke-1. Yogyakarta: Andi.
Kusrini (2007), Konsep dan Aplikasi Sistem Pendukung Keputusan, Yogyakarta: Andy.
Kusrini (2008), Aplikasi Sistem Pakar, Yogyakarta: Andy.
Kusumadewi, Sri., Hartati, S., Harjoko, A., dan Wardoyo, R. 2006. Fuzzy Multi-Attribute
Decision Making. Yogyakarta: Graha Ilmu.
Kosasi, Sandy. 2002. Sistem Penunjang Keputusan (Decision Support System). Pontianak.
Laily Nadhifah, Hasbi Yasin, Sugito,2012. Analisis Faktor-Faktor Yang Mempengaruhi Bayi
Berat Lahir Rendah Dengan Model Regresi Logistik Biner Menggunakan Metode
Bayes, JURNAL GAUSSIAN, Volume 1, Nomor 1, Tahun 2012, Halaman 125-134
Muhammad Armin. 2005. Konsep Dasar Sistem Pakar. Jilid 1. Yogyakarta: Andi.
Prabhu, S., Venatesan, N. 2007. Data Mining and Warehousing. New Age International (P)
Limited, Publishers.
Relita Buaton,Sri Astuti,2013,

Perancangan Sistem Pakar Tes Kepribadian Dengan

Menggunakan Metode Bayes, Jurnal, STMIK Kaputama, Binjai


Relita Buaton,Akim Manaor Pardede,Yani Maulita,Raodah,2014,Sistem Pendukung Keputusan
Penentuan Prioritas Pengembangan Industri Kecil Menengahdengan Metode
Weightedproduct (Studi Kasusdinas Koperasi, Ukm,Perindustrian Dan Perdagangan
Kota Binjai), Jurnal, STMIK Kaputama, Binjai
Sri Hartati dan Sari Iswanti (2008),Sistem Pakar dan Pengembangannya, Yogyakarta: Graha
Ilmu.
Sri Kusumadewi (2003), Artificial Intelligence(Teknik dan Aplikasinya), Yogakarta: Graha
Ilmu.
Sri Kusumadewi (2004), Membangun Jaringan Syaraf Tiruan (Menggunakan Matlab dan Excel
Link), Yogakarta: Graha Ilmu.
Sri

Kusumadewi, 2007. Diklat Kuliah Kecerdasan Buatan, Jurusan Teknik Informatika,


Fakultas Teknologi Industri, Universitas Islam Indonesia.

Sri Winarti, 2008. Pemanfaatan Teorema Bayes Dalam Penentuan Penyakit THT, Jurnal
Informatika Vol 2, No. 2

System Pendukung Keputusan

237

Susila, Wayan R dan Munadi, Ernawati. 2007. Penggunaan Analytical Hierarchy Process untuk
Penyusunan Prioritas Proposal Penelitian. www.litbang.deptan.go.id/warta-ip/pdffile/1.wayanerna_ipvol1622007.pdf. Diakses tanggal: 25 Februari 2011.
Soejoeti, Z dan Soebanar. 1988. Inferensi Bayesian. Karunika Universitas Terbuka: Jakarta.
Suryadi, Kadarsah dan Ramdhani, Ali. 1998. Sistem Pendukung Keputusan. Bandung: PT
Remaja Rosdakarya.
Supriyono, dkk. 2007. Sistem pemilihan pejabat struktural dengan metode ahp. Sdm Teknologi
Nuklir: hal. 1-12. Seminar Nasional III.
Suyanto (2011), Artificial Intelligence, Bandung: Informatika.
Turban, E., Aronson, J.E., Ting Peng Liang (2005), Decision Support System and Intelligent
System, New Jersay: Pearson Edudation.
Venugopal, K.R., Srinivasa, K.G., Patnaik, L.M(2009), Soft Computing For Data Mining
Applications, London: Springer.
Yon Shi, Yingjie Tan, Gang Kou, Yi Peng, Jianping Li(2011), Optimization Based Data Mining
(Theory and Applications) , London: Springer.
Yudho

Giri

Sucahyo,

2003,

Data

Mining

Menggali

Informasi

yang

Terpendam,

www.ilmukomputer.com
Sachdeva, Anish, et all. 5 Mei 2010. Multi-factor failure mode critically analysis using TOPSIS.
http://www.sid.ir/En/VEWSSID/J_pdf/117320090801.pdf.
Sri Andayani, 2007, SEMNAS Matematika dan Pendidikan Matematika, UNY Yogyakarta.
Teknomo, Kardi. Similarity Measurement
http://people.revoledu.com/kardi/tutorial/Similarity/index.html

System Pendukung Keputusan

238