1)KLASIFIKASI BAYES
Naïve Bayes Classifier merupakan sebuah metoda klasifikasi yang berakar pada teorema Bayes
. Metode pengklasifikasian dg menggunakan metode probabilitas dan statistik yg dikemukakan
oleh ilmuwan Inggris Thomas Bayes , yaitu memprediksi peluang di masa depan berdasarkan
pengalaman di masa sebelumnya sehingga dikenal sebagai Teorema Bayes . Ciri utama dr
Naïve Bayes Classifier ini adalah asumsi yg sangat kuat (naïf) akan independensi dari masing-
masing kondisi / kejadian.
KELEBIHAN
Teori Bayesian, mempunyai beberapa kelebihan (Grainner 1998), yaitu
oMudah untuk dipahami
oHanya memerlukan pengkodean yang sederhana
oLebih cepat dalam penghitungan
oMenangani kuantitatif dan data diskrit
oKokoh untuk titik noise yang diisolasi, misalkan titik yang dirata – ratakan ketika
mengestimasi peluang bersyarat data.
oHanya memerlukan sejumlah kecil data pelatihan untuk mengestimasi parameter (rata –
rata dan variansi dari variabel) yang dibutuhkan untuk klasifikasi.
oMenangani nilai yang hilang dengan mengabaikan instansi selama perhitungan estimasi
peluang
oCepat dan efisiensi ruang
oKokoh terhadap atribut yang tidak relevan
KEKURANGAN
oKekurangan dari Teori probabilitas Bayesian yang banyak dikritisi oleh para ilmuwan
adalah karena pada teori ini, satu probabilitas saja tidak bisa mengukur seberapa
dalam tingkat keakuratannya. Dengan kata lain, kurang bukti untuk membuktikan
kebenaran jawaban yang dihasilkan dari teori ini.
oTidak berlaku jika probabilitas kondisionalnya adalah 0 (nol), apabila nol maka
probabilitas prediksi akan bernilai nol juga
oMengasumsikan variabel bebas
TEOREMA NAÏVE BAYES
Sebelum menjelaskan Naïve Bayes Classifier ini, akan dijelaskan terlebih dahulu Teorema
Bayes yang menjadi dasar dari metoda tersebut. Pada Teorema Bayes, bila terdapat dua
kejadian yang terpisah (misalkan X dan H), maka Teorema Bayes dirumuskan sebagai
berikut :
Keterangan
X : Data dengan class yang belum diketahui
H : Hipotesis data merupakan suatu class spesifik
P(H|X) : Probabilitas hipotesis H berdasar kondisi X (posteriori probabilitas)
P(H) : Probabilitas hipotesis H (prior probabilitas)
P(X|H) : Probabilitas X berdasarkan kondisi pada hipotesis H
P(X) : Probabilitas X
Keterangan
i : 1,2,3, ... , n jumlah data Hipotesis (prior probabilitas)dimana : H1 U H2 U H3
……
U Hn
S : Probabilitas total H
Untuk menjelaskan Teorema Naïve Bayes, perlu diketahui bahwa proses klasifikasi
memerlukan sejumlah petunjuk untuk menentukan kelas apa yang cocok bagi sampel yang
dianalisis tersebut. Karena itu, Teorema Bayes di atas disesuaikan sebagai berikut:
Di mana Variabel C merepresentasikan kelas, sementara variabel F1 ... Fn merepresentasikan
karakteristik petunjuk yang dibutuhkan untuk melakukan klasifikasi. Maka rumus tersebut
menjelaskan bahwa peluang masuknya sampel karakteristik tertentu dalam kelas C (Posterior)
adalah peluang munculnya kelas C (sebelum masuknya sampel tersebut,seringkali
disebut prior), dikali dengan peluang kemunculan karakteristik-karakteristik sampel pada
kelas C (disebut juga likelihood), dibagi dengan peluang kemunculan karakteristik-
karakteristik sampel secara global (disebut juga evidence). Karena itu, rumus di atas dapat pula
ditulis secara sederhana sebagai berikut:
Dapat dilihat bahwa hasil penjabaran tersebut menyebabkan semakin banyak dan semakin
kompleksnya faktor - faktor syarat yang mempengaruhi nilai probabilitas, yang hampir
mustahil untuk dianalisa satu persatu. Akibatnya, perhitungan tersebut menjadi sulit untuk
dilakukan. Disinilah digunakan asumsi independensi yang sangat tinggi (naif), bahwa masing-
masing petunjuk (F1,F2 , ..., Fn) saling bebas (independen) satu sama lain. Dengan asumsi
tersebut, maka berlaku suatu kesamaan sebagai berikut:
Untuk i ≠ j, sehingga
Persamaan di atas merupakan model dari teorema Naïve Bayes yang selanjutnya akan
digunakan dalam proses klasifikasi.
KLASIFIKASI DATA KONTINYU
Untuk klasifikasi dengan data kontinyu digunakan rumus Densitas Gauss :
Keterangan
P : Peluang
Xi : Atribut ke-i
xi : Nilai Atribut ke-i
Y : Kelas yang dicari
yi : Sub-kelas yang dicari
μ : mean, menyatakan rata-rata dari seluruh atribut
σ : Deviasi Standar, menyatakan varian dari seluruh atribut
Atau
Keterangan
μ : nilai rata-rata hitung (mean)
xi : nilai x ke-i
n : jumlah sampel
Sedangkan persamaan untuk menghitung nilai Nilai Simpangan Baku (Standar
Deviasi) dirumuskan sebagai berikut :
Keterangan
σ :standar deviasi
xi : nilai x ke-i
μ : nilai rata-rata hitung (mean)
n : jumlah sampel
b. Menghitung nilai probabilistik dengan cara menghitung jumlah data yang sesuai
dari kategori yang sama dibagi dengan jumlah data pada kategori tersebut.
3. Mendapatkan nilai dalam tabel mean, Standar Deviasi dan Probabilitas
4. Menghasilkan Solusi
2) KLASIFIKASI DECISION TREE
PENGERTIAN
Rule
KONSEP DECISION TREE
Mengubah data menjadi pohon keputusan (decision tree) dan aturan-aturan keputusan
(rule).
Data Decision Tree Rule
Membuat aturan (rule) yang dapat digunakan untuk menentukan apakah seseorang
mempunyai potensi untuk menderita hipertensi atau tidak berdasarkan data usia, berat
badan dan jenis kelamin.
Indentity Target
Atribut Atribut 1 Atribut 2 Atribut 3 ...... Atribut n Atribut
Atribut #1
ENTROPY
o S adalah ruang (data) sample yang digunakan untuk training.
Atribut #1
Subset 21 Subset
Answer 1 Answer 2
22
Cuaca
Cerah
Hujan Berawan
Angin
No No
Lambat Keras
Disjunction v
Yes No
IF cuaca=hujan v
cuaca=berawan THEN
MainTenis=No
Conjunction ^
IF cuaca=cerah ^ angin=lambat
THEN MainTenis=Yes
IF cuaca=cerah ^ angin=keras
THEN MainTenis=No
4 4 4 4
E q1 q2 0.81 1 0.91
8 8 8 8
Entropy = 0.94
PENYUSUNAN TREE AWAL
Berat
underweight
overweight average
Leaf Node berikutnya dapat dipilih pada bagian yang mempunyai nilai + dan -, pada contoh di
atas hanya berat=overweight yang mempunyai nilai + dan – maka semuanya pasti mempunya leaf
node. Untuk menyusun leaf node lakukan satu-persatu.
Berat
underweight
overweight average
wanita pria
Rina (+) Ali (+)
Budiman (-)
Herman (+)
Leaf Node Usia dan Jenis Kelamin memiliki Entropy yang sama, sehingga tidak ada cara lain
selain menggunakan pengetahuan pakar atau percaya saja pada hasil acak.
HASIL TREE
Berat
underweight
overweight average
wanita pria
Berat
underweight
overweight average
wanita pria
Ya Usia
muda tua
Ya Tidak
R1: IF berat=average v berat=underweight THEN hipertensi=tidak
R2: IF berat=overweight^kelamin=wanita THEN hipertensi=ya
R3: IF berat=overweigt^kelamin=pria^ usia=muda THEN
hipertensi=ya
R4: IF berat=overweigt^kelamin=pria^ usia=tua THEN
hipertensi=tidak
overweight ya 3
overweight tidak 1
average ya 0
average tidak 2
underweight ya 0
underweight tidak 2
UJI INDEPENDENSI DENGAN DISTRIBUSI CHI-SQUARE
Oij
eij hipertensi
tidak
6
10
3
5
3
5
12
20
Marginal 16 8 8 32
2 ij
2 3 o eij 2
i 1 j 1 eij
(12 6) 2 (0 3) 2 (0 3) 2 (4 10) 2 (8 5) 2 (8 5) 2
6 3 3 10 5 5
19.2 Karena nilai > a maka kriteria berat ini
2 2
o Kriteria Berat mempunyai nilai chi-square 19.2, ini lebih besar dari nilai acuan chi-square
dengan derajat kebebasan 2 yaitu 6.27. Jadi kriteria dependent dan tidak bisa dieliminasi.
o Kriteria Usia mempunyai nilai chi-square 2.13, ini lebih besar dari nilai acuan chi-square
dengan derajat kebebasan 1 yaitu 3.89. Jadi kriteria independent dan bisa dieliminasi.
o Kriteria Jenis Kelamin mempunyai nilai chi-square 0.71, ini lebih besar dari nilai acuan chi-
square dengan derajat kebebasan 1 yaitu 3.89. Jadi kriteria independent dan bisa dieliminasi.
Neural Network memproses informasi berdasarkan cara kerja otak manusia. Dalam hal ini
Neural Network terdiri dari sejumlah besar elemen pemrosesan yang saling terhubung dan
bekerja secara paralel untuk memecahkan suatu masalah tertentu. Di sisi lain, komputer
konvensional menggunakan pendekatan kognitif untuk memecahkan masalah; dimana cara
pemecahan masalah haruslah sudah diketahui sebelumnya untuk kemudian dibuat menjadi
beberapa instruksi kecil yang terstruktur. Instruksi ini kemudian dikonversi menjadi program
komputer dan kemudian ke dalam kode mesin yang dapat dijalankan oleh komputer
Bentuk di atas disebut juga ambang batas bipolar, ada juga yang berbentuk ambang batas
biner.
Parameter a adalah parameter kemiringan (slope) pada kurva sigmoid yang dihasilkan.
Semakin besar nilai a, maka semakin tegak kurva yang diberikan dan semakin kecil kurva
maka semakin landai kurva yang diberikan. Umumnya nilai a yang digunakan adalah 1
sehingga formula yang umum digunakan menjadi seperti berikut:
Nilai parameter a yang digunakan umumnya 1 sehingga formula d atas menjadi seperti
berikut:
STUDI KASUS
PREDIKSI CUACA MENGGUNAKAN METODE NEURAL NETWORK
o Neural Network adalah jaringan saraf yang mensimulasikan jaringan saraf biologis
manusia kedalam arsitektur computer dan arsistektur algoritma baru terhadap computer
konvensional.
o Backpropagation merupakan metode pembelajaran jaringan syaraf tiruan yang paling
umum digunakan dan bekerja melalui proses secara iteratif dengan menggunakan
sekumpulan contoh data (data training), membandingkan nilai prediksi dari jaringan
dengan setiap contoh data
Langkah pembelajaran dalam algoritma backpropagation adalah sebagai berikut:
1. Inisialisasi bobot jaringan secara acak (biasanya antara -0.1 sampai 1.0)
2. Untuk setiap data pada data training, hitung input untuk simpul berdasarkan nilai input dan
bobot jaringan saat itu, menggunakan rumus:
Keterangan:
Oi = Output simpul i dari layer sebelumnya
Wij = bobot relasi dari simpul i pada layer sebelumnya ke simpul j
ϴj = bias (sebagai pembatas)
3. Berdasarkan input dari langkah dua, selanjutnya membangkitkan output untuk simpul
menggunakan fungsi aktivasi sigmoid:
4. Hitung nilai Error antara nilai yang diprediksi dengan nilai yang sesungguhnya menggunakan
rumus:
Keterangan:
Outputj = Output aktual dari simpul j
Targetj = Nilai target yang sudah diketahui pada data training
5. Setelah nilai Error dihitung, selanjutnya dibalik ke layer sebelumnya (backpropagated). Untuk
menghitung nilai Error pada hidden layer, menggunakan rumus:
Keterangan:
Outputj = Output aktual dari simpul j
Errork = error simpul k
Wjk = Bobot relasi dari simpul j ke simpul k pada layer berikutnya
6. Nilai Error yang dihasilkan dari langkah sebelumnya digunakan untuk memperbarui bobot
relasi menggunakan rumus:
Keterangan:
Wij = bobot relasi dari unit i pada layer sebelumnya ke unit j
l = learning rate (konstanta, nilainya antara 0 sampai dengan 1)
Errorj = Error pada output layer simpul j
Outputi = Output dari simpul i
Untuk menentukan nilai learning rate dilakukan eksperimen dengan memasukan nilai dari 0.1
sampai dengan 0.5 , nilai training cycles yang digunakan yaitu nilai training cycles yang didapat
dari eksperimen sebelumnya yaitu 500 dan 0.1 untuk nilai momentum.
Tabel 4.3 eksperimen untuk menentukan nilai momentum
Dari hasil eksperimen untuk menentukan nilai momentum dengan nilai akurasi tertinggi didapat
pada saat momentum bernilai 0.1
Tabel 4.4 Eksperimen untuk menentukan Hidden Layer Sizes pada Hidden Layer 1
Hasil eksperimen menunjukan 1 hidden layer dengan sizes 9 yang menghasilkan nilai akurasi
tertinggi yaitu, dengan nilai 72.97 % Berdasarkan eksperimen yang telah dilakukan, didapatkan
hasil arsitektur jaringan yang dianggap terbaik yaitu dengan nilai akurasi yang paling tinggi,
sebagai berikut:
Tabel 4.5 Parameter Neural Network hasil eksperimen
KESIMPULAN
Dari penelitian yang dilakukan model yang terbentuk dengan algoritma Neural Network sendiri
memiliki tingkat akurasi yaitu sebesar 72.97% . Dengan model prediksi yang baik, dapat
memberikan informasi bagi kebijakan pemerintah dalam perencanaan pengololaan sumber daya
air kedepannya dan juga dapat memberikan informasi cuaca sedini mungkin bagi masyarakat
pengguna jasa agar dapat melakukan aktivitas kegiatannya untuk beberapa waktu kedepan.
4) SUPPORT VECTOR MACHINE
Support Vector Machine (SVM) merupakan salah satu metode dalam supervised learning yang
biasanya digunakan untuk klasifikasi (seperti Support Vector Classification) dan regresi
(Support Vector Regression). Dalam pemodelan klasifikasi, SVM memiliki konsep yang lebih
matang dan lebih jelas secara matematis dibandingkan dengan teknik-teknik klasifikasi lainnya.
SVM juga dapat mengatasi masalah klasifikasi dan regresi dengan linear maupun non linear.
SVM digunakan untuk mencari hyperplane terbaik dengan memaksimalkan jarak antar kelas.
Hyperplane adalah sebuah fungsi yang dapat digunakan untuk pemisah antar kelas. Dalam 2-D
fungsi yang digunakan untuk klasifikasi antar kelas disebut sebagai line whereas, fungsi yang
digunakan untuk klasifikasi antas kelas dalam 3-D disebut plane similarly, sedangan fungsi yang
digunakan untuk klasifikasi di dalam ruang kelas dimensi yang lebih tinggi di sebut hyperplane.
Hyperplane yang ditemukan SVM posisinya berada ditengah-tengah antara dua kelas, artinya
jarak antara hyperplane dengan objek-objek data berbeda dengan kelas yang berdekatan (terluar)
yang diberi tanda bulat kosong dan positif. Dalam SVM objek data terluar yang paling dekat
dengan hyperplane disebut support vector. Objek yang disebut support vector paling sulit
diklasifikasikan dikarenakan posisi yang hampir tumpang tindih (overlap) dengan kelas
lain.Mengingat sifatnya yang kritis, hanya support vector inilah yang diperhitungkan untuk
menemukan hyperplane yang paling optimal oleh SVM.
contoh Tabel data :
Plat contoh data
menjelaskan bahwa terdapat 2 kelas yang terdiri dari -1 ditunjukkan dengan warna biru dan 1
ditunjukkan dengan warna orange. Pada masing-masing titik tersebut digunakan untuk mencari
pemisah
Dengan syarat :
yi(xi . w +b) -1 ≥ 0, i = 1,2,3,….,n
yi(x1.w1 + x2.w2 + b) ≥ 1
sehingga ditemukan persamaan sebagai berikut:
1. (𝑤1 + 𝑤2 + 𝑏 ) ≥ 1 untuk y1 = 1, x1=1, x2=1
2. (−𝑤1 + 𝑤2 − 𝑏 ) ≥ 1 untuk y2 = -1, x1=1, x2=-1
3. (𝑤1 − 𝑤2 − 𝑏 ) ≥ 1 untuk y3 = -1, x1=-1, x2=1
4. (𝑤1 + 𝑤2 − 𝑏 ) ≥ 1 untuk y1 = -1, x1=-1, x2=-1
Berdasarkan persamaan diatas, maka didapatkan nilai dari setiap variabel. Dari persamaan 1 dan 2
didapatkan:
berdasarkan asumsi bahwa kedua belah kelas terpisah secara sempurna oleh hyperplane. Dua
buah kelas tidak selalu terpisah secara sempurna. Hal tersebut menyebabkan constraint pada
persamaan 1 tidak terpenuhi, sehingga optimasi tidak terpenuhi dilakukan. Untuk mengatasi
masalah ini, SVM dirumuskan ulang dengan menggunakan teknik soft margin.
Contoh
Jarak Euclidean adalah formula untuk mencari jarak antara 2 titik dalam ruang dua
dimensi.
o Hamming Distance
Jarak Hamming adalah cara mencari jarak antar 2 titik yang dihitung dengan panjang
vektor biner yang dibentuk oleh dua titik tersebut dalam block kode biner.
o Manhattan Distance
Manhattan Distance atau Taxicab Geometri adalah formula untuk mencari jarak d antar 2
vektor p,q pada ruang dimensi n.
o Minkowski Distance
Minkowski distance adalah formula pengukuran antar 2 titik pada ruang vektor normal
yang merupakan hibridisasi yang menjeneralisasi euclidean distance dan mahattan
distance.Teknik pencarian tetangga terdekat disesuaikan dengan dimensi data, proyeksi,
dan kemudahan implementasi oleh pengguna.
A2. Banyaknya k Tetangga Terdekat
Untuk menggunakan algoritma k nearest neighbors, perlu ditentukan banyaknya k tetangga
terdekat yang digunakan untuk melakukan klasifikasi data baru. Banyaknya k, sebaiknya
merupakan angka ganjil, misalnya k = 1, 2, 3, dan seterusnya. Penentuan nilai k
dipertimbangkan berdasarkan banyaknya data yang ada dan ukuran dimensi yang dibentuk
oleh data. Semakin banyak data yang ada, angka k yang dipilih sebaiknya semakin rendah.
Namun, semakin besar ukuran dimensi data, angka k yang dipilih sebaiknya semakin tinggi.
A3 Algoritma K-Nearest Neighbors
o Tentukan k bilangan bulat positif berdasarkan ketersediaan data pembelajaran.
o Pilih tetangga terdekat dari data baru sebanyak k.
o Tentukan klasifikasi paling umum pada langkah (2), dengan menggunakan frekuensi
terbanyak.
o Keluaran klasifikasi dari data sampel baru.
CONTOH KASUS
o Misalnya ada sebuah rumah yang berada tepat di tengah perbatasan antara Kota Bandung
dan Kabupaten Bandung, sehingga pemerintah kesulitan untuk menentukan apakah
rumah tersebut termasuk kedalam wilayah Kota Bandung atau Kabupaten Bandung.
o Kita bisa menentukannya dengan menggunakan Algoritma K-nearest neighbors, yaitu
dengan melibatkan jarak antara rumah tersebut dengan rumah-rumah yang ada
disekitarnya (tetangganya).
Pertama, kita harus menentukan jumlah tetangga yg akan kita perhitungkan (k),
misalnya kita tentukan 3 tetangga terdekat (k = 3).
Kedua, hitung jarak setiap tetangga terhadap rumah tersebut, lalu urutkan hasilnya
berdasarkan jarak, mulai dari yang terkecil ke yang terbesar.
Ketiga, ambil 3 (k) tetangga yg paling dekat, lalu kita lihat masing-masing dari tetangga
tersebut apakah termasuk kedalam wilayah Kota atau Kabupaten. Ada 2 kemungkinan:
o Bila dari 3 tetangga tersebut terdapat ada 2 rumah yg termasuk kedalam wilayah
Kota Bandung, maka rumah tersebut termasuk kedalam wilayah Kota Bandung.
o Sebaliknya, bila dari 3 tetangga tersebut terdapat 2 rumah yg termasuk kedalam
wilayah Kabupaten Bandung, maka rumah tersebut termasuk kedalam wilayah
Kabupaten Bandung.
“Dalam menentukan nilai k, bila jumlah klasifikasi kita genap maka sebaiknya kita gunakan
nilai k ganjil, dan begitu pula sebaliknya bila jumlah klasifikasi kita ganjil maka sebaiknya
gunakan nilai k genap, karena jika tidak begitu, ada kemungkinan kita tidak akan mendapatkan
jawaban”
PEMBAHASAN LEBIH DETIL
o Pada kasus diatas, kita menghitung jarak suatu rumah terhadap tetangga-tetangganya, itu
berarti kita harus mengetahui posisi dari setiap rumah. Kita bisa menggunakan latitude
dan longitude (atau garis lintang dan garis bujur) sebagai posisi.
o Untuk mempermudah pemahaman, saya akan coba menggunakan data yang nilainya
sederhana. Data yang akan digunakan adalah sebagai berikut:
Dimana :
o (x1, y1) adalah latitude dan longitude dari rumah X (rumah yang akan di prediksi)
o (x2, y2) adalah latitud dan longitude dari masing-masing tetangganya.
Contoh :
Rumah H dengan latitude 21 dan longitude 24
Rumah x dengan latitude 19 dan longitude 25
2 2
√
d = ( x 2−x 1 ) + ( y 2− y 1 )
x x
2 2
√
d = ( 21−19 ) + ( 24−25 )
x x
2 2
√
d = ( 2 ) + (−1 )
x x
d = √ ( 4 ) +( 1 )
d = √5
= 2,23606798 (2,24)
Setelah dihitung, selanjutnya adalah urutkan jarak tersebut dari yang paling kecil ke yang paling
besar, hasilnya adalah sebagai berikut:
Dapat dilihat dari hasil perhitungan diatas, bahwa ternyata 3 tetangga terdekat dari rumah X
adalah:
o Rumah H (Kabupaten) yang memiliki jarak 2.24
o Rumah C (Kota) yang memiliki jarak 3
o Rumah E (Kota) yang memiliki jarak 3.16
Dari ke-3 tetangga terdekat, terdapat 2 rumah yang termasuk kedalam wilayah Kota dan 1
rumah yang masuk ke dalam wilayah Kabupaten. Sehingga dapat disimpulkan, bahwa Rumah X
adalah rumah yang termasuk kedalam wilayah Kota Bandung.
KELEBIHAN
Kelebihan Algoritma k-NN atau k-Nearest Neighbor diantaranya seperti
o Perhitungannya Sederhana
o Komputasinya Rendah
o Algoritma Mudah dipelajari
o Tahan terhadap derau
o Efektif jika set data latih yang digunakan sangat besar.
KELEMAHAN
Sedangkan kelemahan dari KNN adalah :
o KNN perlu menentukan nilai dari parameter K (jumlah dari tetangga terdekat)
o Pembelajaran berdasarkan jarak tidak jelas mengenai jenis jarak apa yang harus digunakan
dan atribut mana yang harus digunakan untuk mendapatkan hasil yang terbaik
o Biaya komputasi cukup tinggi karena diperlukan perhitungan jarak dari tiap sample
uji pada keseluruhan sample latih
o Di dunia kedokteran dan biologi: Diagnosis penyakit pasien, penelitian kanker, dsb.
o Manajemen pengambilan keputusan: Manajemen basis data untuk query data
o Tata letak pabrik yang maksimal Penentuan jumlah produksi berdasarkan jumlah stok
dan permintaan.
o Klasifikasi dan pencocokan pola.
o Mengukur kualitas air, peramalan cuaca, dll
Di dalam perhitungan logika fuzzy terdapat beberapa metode, yaitu metode Tsukamoto, metode
Mamdani, dan metode Takagi-Sugeno. Setiap metode tersebut memiliki cara dan hasil
perhitungan yang berbeda.
1. Fuzzy Tsukamoto
Pada Metode Tsukamoto, setiap konsekuen pada aturan yang berbentuk IF-Then harus
direpresentasikan dengan suatu himpunan fuzzy dengan fungsi keanggotaan yang
monoton. Sebagai hasilnya, output hasil inferensi dari tiap-tiap aturan diberikan secara
tegas (crisp) berdasarkan α-predikat (fire strength). Hasil akhir menggunakan rata-rata
terbobot, dalam inferensinya, metode Tsukamoto menggunakan tahapan berikut :
1. Pembentukan himpunan fuzzy. Variabel input maupun output dibagi menjadi satu atau
lebih himpunan fuzzy
2. Fuzzifikasi, yaitu menetukan derajat keanggotaan varibel input
3. Pembentukan basis pengetahuan Fuzzy (Rule dalam bentuk IF….THEN)
4. Implikasi dengan fungsi MIN untuk mendapatkan nilai α-predikat tiap-tiap rule (α1,
α2, α3,….. αn) Kemudian masing-masing nilai α-predikat ini digunakan untuk
menghitung keluaran hasil inferensi secara tegas (crisp) masing-masing rule (z1, z2,
z3,….. zn )
5. Defuzzifikasi Menggunakan metode rata-rata :
Keterangan :
Z= Variabel output
αi = Nilai α predikat
zi = Nilai variabel output
2. Fuzzy Takagi-Sugeno
Metode ini diperkenalkan oleh Takagi-Sugeno pada tahun 1985. Aturan sistem inferensi
fuzzy Sugeno merupakan toolbox untuk membangun sistem fuzzy logic berdasarkan
Metode Sugeno. Keuntungan menggunakan metode Takagi – Sugeno ini di antaranya:
o Lebih efisien dalam masalah komputasi
o Bekerja paling baik untuk teknik-teknik linear
Keterangan :
x = Bobot nilai yang sudah ditentukan pada setiap gejala yang dipilih
a = Batas nilai minimum pada setiap gejala
b = Nilai tengah dari batas minimum dan maksimum
c = Batas nilai maksimum pada setiap gejala
Rumus umum untuk defuzzifikasi metode Fuzzy Inference System TakagiSugeno-
Kang yaitu sebagai berikut :
Keterangan :
WA = (Weighted Average) Nilai rata-rata
an = Nilai predikat aturan ke-n
zn = Indeks nilai input (konstanta) ke-n
3. Metode Mamdani
Metode Mamdani sering juga dikenal dengan nama metode MIN - MAX. Metode ini
diperkenalkan oleh Ebrahim Mamdani pada tahun 1975. Sistem ini berfungsi
untuk mengambil keputusan melalui proses tertentu dengan mempergunakan
aturan inferensi berdasarkan logika fuzzy.Untuk mendapatkan output,diperlukan 3
tahapan:
a) Pembentukan himpunan fuzzy
Pada metode mamadani,baik variabel input maupun variabel output dibagi
menjadi satu atau lebih himpunan fuzzy.
b) Aplikasi fungsi implikasi
Pada metode mamdani ,fungsi implikasi yang digunakan adalah Min.
c) Komposisi Aturan
Apabila sistem terdiri dari beberapa aturan,maka inferensi diperoleh dari
gabungan antar aturan.
Ada tiga metode yang digunakan dalam melakukan inferensi sistem fuzzy,
yaitu: max, additive dan probabilistik OR (probor).
1. Metode Max (Maximum)
Pada metode ini, solusi himpunan fuzzy diperoleh dengan cara mengambil nilai
maksimum aturan, kemudian menggunakannya untuk memodifikasi daerah
fuzzy, dan mengaplikasikannya ke output dengan menggunakan operator OR
(union). Jika semua proposisi telah dievaluasi, maka output akan berisi suatu
himpunan fuzzy yang merefleksikan konstribusi dari tiap-tiap proposisi. Secara
umum dapat dituliskan:
Keterangan :
Usf[xi] = nilai keanggotaan solusi fuzzy sampai aturan ke-i;
Ukf[xi] = nilai keanggotaan konsekuen fuzzy aturan ke-i.
Keterangan:
Z = nilai domain ke – i,
𝜇 (Z) = derajat keanggotaan titik tersebut,
Z0 = nilai hasil penegasan (defuzzyfikasi).
Keterangan:
Z = nilai hasil penegasan (defuzzyfikasi)
di = nilai keluaran pada aturan ke i
𝑈𝐴𝑖(di) = derajat keanggotaan nilai keluaran pada aturan ke –i
n = banyaknya aturan yang digunakan.
Metode Bisektor
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai pada domain
fuzzy yang memiliki nilai keanggotaan setengah dari jumlah total nilai keanggotaan
pada daerah fuzzy. Secara umum dituliskan:
Keterangan :
d = nilai hasil penegasan (defuzzyfikasi),
di = nilai keluaran pada aturan ke-i,
U𝐴𝑖 (di) = derajat keanggotaan nilai keluaran pada aturan ke – i,
n = banyak aturan yang digunakan
Metode Mean of Maksimum (MOM)
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai rata – rata
domain yang memiliki nilai keanggotaan maksimum.
Metode Largest of Maximum (LOM)
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai terbesar dari
domain yang memiliki nilai keanggotaan maksimum.
Metode Smallest of Maximum (SOM)
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai terkecil dari
domain yang memiliki nilai keanggotaan maksimum
2. FUZZYFIKASI
3. OPERASI FUZZY LOGIC
[R1] Jika permintaan TURUN dan pekerja SEDIKIT maka produksi BERKURANG
[R2] Jika permintaan TURUN dan pekerja SEDANG maka produksi BERKURANG
[R3] Jika permintaan TURUN dan pekerja BANYAK maka produksi BERKURANG
[R4] Jika permintaan BIASA dan pekerja SEDIKIT maka produksi BERKURANG
[R5] Jika permintaan BIASA dan pekerja BIASA maka produksi BERTAMBAH
[R6] Jika permintaan BIASA dan pekerja BANYAK maka produksi BERTAMBAH
[R7] Jika permintaan NAIK dan pekerja SEDIKIT maka produksi BERKURANG
[R8] Jika permintaan NAIK dan pekerja SEDANG maka produksi BERTAMBAH
[R9] Jika permintaan NAIK dan pekerja BANYAK maka produksi BERTAMBAH
4. IMPLIKASI
5. DEFUZZYFIKASI
Nilai Z akhir rata rata terbobot :
Rata-rata: Ini didefinisikan sebagai mengambil rata-rata prediksi dari model dalam kasus
masalah regresi atau saat memprediksi probabilitas untuk masalah klasifikasi.
44 39 67 50
Vote: Ini didefinisikan sebagai mengambil prediksi dengan suara / rekomendasi maksimum dari
berbagai model prediksi sambil memprediksi hasil dari masalah klasifikasi.
1 0 1 1
Weight Rata-rata: Dalam hal ini, bobot yang berbeda diterapkan pada prediksi dari beberapa
model kemudian mengambil rata-rata yang berarti memberikan manfaat tinggi atau rendah ke
keluaran model tertentu.
Predic 44 39 67 48
BAGGING
Bagging merupakan metode yang dapat memperbaiki hasil dari algoritma klasifikasi machine
learning dengan menggabungkan klasifikasi prediksi dari beberapa model. Hal ini digunakan
untuk mengatasi ketidakstabilan pada model yang kompleks dengan kumpulan data yang relatif
kecil. Bagging adalah salah satu algoritma berbasis ensemble yang paling awal dan paling
sederhana, namun efektif. Bagging paling cocok untuk masalah dengan dataset pelatihan yang
relatif kecil. Bagging mempunyai variasi yang disebut Pasting Small Votes. cara ini dirancang
untuk masalah dengan dataset pelatihan yang besar, mengikuti pendekatan yang serupa, tetapi
membagi dataset besar menjadi segmen yang lebih kecil. Penggolong individu dilatih dengan
segmen ini, yang disebut bites, sebelum menggabungkannya melalui cara voting mayoritas.
FIGURE BAGGING
Bagging mengadopsi distribusi bootstrap supaya menghasilkan base learner yang berbeda, untuk
memperoleh data subset. sehingga melatih base learners. dan bagging juga mengadopsi strategi
aggregasi output base leaner, yaitu metode voting untuk kasus klasifikasi dan averaging untuk
kasus regresi.
BOOSTING
Boosting merupakan cara untuk menghasilkan beberapa model atau penggolongan untuk prediksi
atau klasifikasi, dan juga menggabungkan prediksi dari berbagai model ke dalam prediksi
tunggal. Boosting adalah pendekatan iteratif untuk menghasilkan pengklasifikasi yang kuat, yang
mampu mencapai kesalahan training seminimal mungkin dari sekelompok pengklasifikasi yang
lemah. yang masing-masing hampir tidak dapat melakukan lebih baik daripada tebakan acak.
Boosting di rancang untuk masalah kelas biner, menciptakan kumpulan dari tiga klasifikasi yang
lemah pada satu waktu. klasifikasi pertama (atau hipotesis) adalah memproses subset acak dari
data training yang tersedia. klasifikasi kedua adalah subset yang berbeda dari dataset asli, dimana
hasil dari klasifikasi pertama yang sudah benar di klasifikasi dan setengahnya lagi salah
diklasifikasi. klasifikasi ketiga kemudian dilatih dengan contoh di mana klasifikasi pertama dan
klasifikasi kedua tidak setuju. Ketiga pengklasifikasi ini kemudian digabungkan melalui suara
mayoritas tiga arah.
Figure boosting
STACKING
Stacking merupakan cara untuk mengkombinasi beberapa model, dengan konsep meta learner.
dipakai setelah bagging dan boosting. tidak seperti bagging dan boosting, stacking
memungkinkan mengkombinasikan model dari tipe yang berbeda. Ide dasarnya adalah untuk
train learner tingkat pertama menggunakan kumpulan data training asli, dan kemudian
menghasilkan kumpulan data baru untuk melatih learner tingkat kedua, di mana output dari
learner tingkat pertama dianggap sebagai fitur masukan sementara yang asli label masih
dianggap sebagai label data training baru. Pembelajar tingkat pertama sering dihasilkan dengan
menerapkan algoritma learning yang berbeda.Dalam fase training pada stacking, satu set data
baru perlu dihasilkan dari classifier tingkat pertama. Jika data yang tepat yang digunakan untuk
melatih classifier tingkat pertama juga digunakan untuk menghasilkan kumpulan data baru untuk
melatih classifier tingkat kedua. proses tersebut memiliki risiko yang tinggi yang akan
mengakibatkan overfitting. sehingga disarankan bahwa contoh yang digunakan untuk
menghasilkan kumpulan data baru dikeluarkan dari contoh data training untuk learner tingkat
pertama, dan prosedur crossvalidasi.
Figure Stacking
KEUNTUNGAN
Ensembling adalah metode yang terbukti untuk meningkatkan akurasi model dan bekerja
di sebagian besar kasus.
Ini adalah bahan utama untuk memenangkan hampir semua hackathon pembelajaran
mesin.
Ensembling membuat model lebih kuat dan stabil sehingga memastikan kinerja yang
layak pada uji kasus di sebagian besar skenario.
Untuk menangkap hubungan kompleks linier dan sederhana serta non-linear dalam data.
Ini dapat dilakukan dengan menggunakan dua model yang berbeda dan membentuk
ensemble dua.
KEKURANGAN