Anda di halaman 1dari 52

DATA MINING

KELOMPOK : 1. DIMAS PANGESTU MUKIN


2. MAHRIZAL BAHRI HAJI
3. MUHAMMAD SYAHRUL MARZUKI

1)KLASIFIKASI BAYES
Naïve Bayes Classifier merupakan sebuah metoda klasifikasi yang berakar pada teorema Bayes
. Metode pengklasifikasian dg menggunakan metode probabilitas dan statistik yg dikemukakan
oleh ilmuwan Inggris Thomas Bayes , yaitu memprediksi peluang di masa depan berdasarkan
pengalaman di masa sebelumnya sehingga dikenal sebagai Teorema Bayes . Ciri utama dr
Naïve Bayes Classifier ini adalah asumsi yg sangat kuat (naïf) akan independensi dari masing-
masing kondisi / kejadian.
KELEBIHAN
Teori Bayesian, mempunyai beberapa kelebihan (Grainner 1998), yaitu
oMudah untuk dipahami
oHanya memerlukan pengkodean yang sederhana
oLebih cepat dalam penghitungan
oMenangani kuantitatif dan data diskrit
oKokoh untuk titik noise yang diisolasi, misalkan titik yang dirata – ratakan ketika
mengestimasi peluang bersyarat data.
oHanya memerlukan sejumlah kecil data pelatihan untuk mengestimasi parameter (rata –
rata dan variansi dari variabel) yang dibutuhkan untuk klasifikasi.
oMenangani nilai yang hilang dengan mengabaikan instansi selama perhitungan estimasi
peluang
oCepat dan efisiensi ruang
oKokoh terhadap atribut yang tidak relevan

KEKURANGAN
oKekurangan dari Teori probabilitas Bayesian yang banyak dikritisi oleh para ilmuwan
adalah karena pada teori ini, satu probabilitas saja tidak bisa mengukur seberapa
dalam tingkat keakuratannya. Dengan kata lain, kurang bukti untuk membuktikan
kebenaran jawaban yang dihasilkan dari teori ini.
oTidak berlaku jika probabilitas kondisionalnya adalah 0 (nol), apabila nol maka
probabilitas prediksi akan bernilai nol juga
oMengasumsikan variabel bebas
TEOREMA NAÏVE BAYES
Sebelum menjelaskan Naïve Bayes Classifier ini, akan dijelaskan terlebih dahulu Teorema
Bayes yang menjadi dasar dari metoda tersebut. Pada Teorema Bayes, bila terdapat dua
kejadian yang terpisah (misalkan X dan H), maka Teorema Bayes dirumuskan sebagai
berikut :

Keterangan
X : Data dengan class yang belum diketahui
H  : Hipotesis data merupakan suatu class spesifik
P(H|X)  : Probabilitas hipotesis H berdasar kondisi X (posteriori probabilitas)
P(H)  : Probabilitas hipotesis H (prior probabilitas)
P(X|H)  : Probabilitas X berdasarkan kondisi pada hipotesis H
P(X)  : Probabilitas X

Teorema Bayes sering pula dikembangkan mengingat berlakunya hukum probabilitas total,


menjadi seperti berikut:

Keterangan
i  : 1,2,3, ... , n jumlah data Hipotesis (prior probabilitas)dimana : H1 U H2 U H3
……
U Hn
S  : Probabilitas total H
Untuk menjelaskan Teorema Naïve Bayes, perlu diketahui bahwa proses klasifikasi
memerlukan sejumlah petunjuk untuk menentukan kelas apa yang cocok bagi sampel yang
dianalisis tersebut. Karena itu, Teorema Bayes di atas disesuaikan sebagai berikut:
Di mana Variabel C merepresentasikan kelas, sementara variabel F1 ... Fn merepresentasikan
karakteristik petunjuk yang dibutuhkan untuk melakukan klasifikasi. Maka rumus tersebut
menjelaskan bahwa peluang masuknya sampel karakteristik tertentu dalam kelas C (Posterior)
adalah peluang munculnya kelas C (sebelum masuknya sampel tersebut,seringkali
disebut prior), dikali dengan peluang kemunculan karakteristik-karakteristik sampel pada
kelas C (disebut juga likelihood), dibagi dengan peluang kemunculan karakteristik-
karakteristik sampel secara global (disebut juga evidence). Karena itu, rumus di atas dapat pula
ditulis secara sederhana sebagai berikut:

Nilai Evidence selalu tetap untuk setiap kelas pada satu sampel. Niladari posterior tersebut


nantinya akan dibandingkan dengan nilai-nilai posterior kelas lainnya untuk menentukan ke
kelas apa suatu sampel akan diklasifikasikan. Penjabaran lebih lanjut rumus Bayes tersebut
dilakukan dengan menjabarkan (C,F1, ... , Fn) menggunakan aturan perkalian sebagai berikut:

Dapat dilihat bahwa hasil penjabaran tersebut menyebabkan semakin banyak dan semakin
kompleksnya faktor - faktor syarat yang mempengaruhi nilai probabilitas, yang hampir
mustahil untuk dianalisa satu persatu. Akibatnya, perhitungan tersebut menjadi sulit untuk
dilakukan. Disinilah digunakan asumsi independensi yang sangat tinggi (naif), bahwa masing-
masing petunjuk (F1,F2 , ..., Fn) saling bebas (independen) satu sama lain. Dengan asumsi
tersebut, maka berlaku suatu kesamaan sebagai berikut:

Untuk i ≠ j, sehingga

Atau dapat dituliskan dalam notasi


yang dapat dijabarkan sebagai berikut

Persamaan di atas merupakan model dari teorema Naïve Bayes yang selanjutnya akan
digunakan dalam proses klasifikasi.
KLASIFIKASI DATA KONTINYU
Untuk klasifikasi dengan data kontinyu digunakan rumus Densitas Gauss :

Keterangan
P : Peluang
Xi : Atribut ke-i
xi : Nilai Atribut ke-i
Y : Kelas yang dicari
yi : Sub-kelas yang dicari
μ : mean, menyatakan rata-rata dari seluruh atribut
σ : Deviasi Standar, menyatakan varian dari seluruh atribut

ALUR METODE NAIVE BAYES


Adapun keterangan dari gambar di atas adalah sebagai berikut:
1. Membaca Data Training
2. Menghitung Jumlah dan Probabilitas, namun jika data numerik maka
a. Menghitung nilai mean dan Dtandar Deviasi dari masing-masing parameter yang
merupakan numerik. Adapun persamaan untuk mencari nilai rata-rata hitung
(mean) adalah seperti dalam persamaan berikut ini:

Atau

Keterangan
μ : nilai rata-rata hitung (mean)
xi : nilai x ke-i
n : jumlah sampel
Sedangkan persamaan untuk menghitung nilai Nilai Simpangan Baku (Standar
Deviasi) dirumuskan sebagai berikut :
Keterangan
σ :standar deviasi
xi : nilai x ke-i
μ : nilai rata-rata hitung (mean)
n : jumlah sampel
b. Menghitung nilai probabilistik dengan cara menghitung jumlah data yang sesuai
dari kategori yang sama dibagi dengan jumlah data pada kategori tersebut.
3. Mendapatkan nilai dalam tabel mean, Standar Deviasi dan Probabilitas
4. Menghasilkan Solusi
2) KLASIFIKASI DECISION TREE

PENGERTIAN

o Decision tree merupakan suatu metode klasifikasi yang menggunakan struktur pohon,


dimana setiap node merepresentasikan atribut dan cabangnya merepresentasikan nilai
dari atribut, sedangkan daunnya digunakan untuk merepresentasikan kelas. Node teratas
dari decision tree ini disebut dengan 
o Penggunaan Decision tree ini umumnya dalam riset operasi, khususnya dalam analisis
keputusan. Tujuan dalam menggunakan Decision tree untuk membantu mengidentifikasi
strategi yang paling mungkin untuk mencapai tujuan dan merupakan alat yang populer
dalam machine learning.

Rule
KONSEP DECISION TREE
Mengubah data menjadi pohon keputusan (decision tree) dan aturan-aturan keputusan
(rule).
Data Decision Tree Rule

GAMBARAN PEMAKAIAN DECISION TREE

Membuat aturan (rule) yang dapat digunakan untuk menentukan apakah seseorang
mempunyai potensi untuk menderita hipertensi atau tidak berdasarkan data usia, berat
badan dan jenis kelamin.

Nama Usia Berat BeratKelamin Hipertensi


Ali muda overweight pria y a
un d erweight
Edi mudaoverweiguhntderweightaveragperia tidak
Annie muda average wanita tidak
JenistuaKelamin overweight Tidakpria
Budiman tidak Tidak
Herman tua overweight R1:pria yav berat=underweight
IF berat=average
wanitamuda pria THEN hipertensi=tidak
Didi underweight pria tidak
R2: IF berat=overweight^kelamin=wanita
Rina Ya tua Usiaoverweight wanita THEN hipertensi=ya
ya
Gatot tua average R3:pria
IF berat=overweigt^kelamin=pria^
tidak
tua usia=muda THEN hipertensi=ya
muda
R4: IF berat=overweigt^kelamin=pria^
usia=tua THEN hipertensi=tidak
Ya Ya/Tidak

BEBERAPA CONTOH PEMAKAIAN DECISION TREE

o Diagnosa penyakit tertentu, seperti hipertensi, kanker, stroke dan lain-lain


o Pemilihan produk seperti rumah, kendaraan, komputer dan lain-lain
o Pemilihan pegawai teladan sesuai dengan kriteria tertentu
o Deteksi gangguan pada komputer atau jaringan komputer seperti Deteksi Entrusi,
deteksi virus (trojan dan varians)
o Masih banyak lainnya.
KONSEP DATA DALAM DECISION TREE
o Data dinyatakan dalam bentuk tabel dengan atribut dan record.

o Atribut menyatakan suatu parameter yang dibuat sebagai kriteria dalam


pembentukan tree.Misalkan untuk menentukan main tenis, kriteria yang diperhatikan
adalah cuaca, angin dan temperatur. Salah satu atribut merupakan atribut yang
menyatakan data solusi per-item data yang disebut dengan target atribut.
o Atribut memiliki nilai-nilai yang dinamakan dengan instance. Misalkan atribut
cuaca mempunyai instance berupa cerah, berawan dan hujan.
KONSEP DATA DALAM DECISION TREE (CONT...)

Nama Cuaca Angin Temperatur Main


Ali cerah keras panas tidak
Budi cerah lambat panas ya
Heri berawan keras sedang tidak
Irma hujan keras dingin tidak
Diman cerah lambat dingin ya

Sample Target atribut


attribut

PROSES DALAM DECISION TREE


o Mengubah bentuk data (tabel) menjadi model tree.
o Mengubah model tree menjadi rule
o Menyederhanakan Rule (Pruning)
PROSES DATA MENJADI TREE

Indentity Target
Atribut Atribut 1 Atribut 2 Atribut 3 ...... Atribut n Atribut

Atribut #1

Subset 1 Subset 2 Subset 3

Atribut #2 Atribut #2 Atribut #2

ENTROPY
o S adalah ruang (data) sample yang digunakan untuk training.

o P+ adalah jumlah yang bersolusi positif (mendukung) pada


o P+ adalah jumlah yang bersolusi negatif (tidak mendukung)

o Besarnya Entropy pada ruang sample S didefinisikan dengan:


Entropy(S) = -p+ log2 p+ - p- log2 p-
DEFINISI ENTROPY
o Entropy(S) adalah jumlah bit yang diperkirakandibutuhkan untuk dapat mengekstrak suatu kelas(+
atau -) dari sejumlah data acak pada ruang sample S.
o Entropy bisa dikatakan sebagai kebutuhan bit untuk menyatakan suatu kelas. Semakin kecil nilai
Entropy maka semakin baik untuk digunakan dalam mengekstraksi suatu kelas.
o Panjang kode untuk menyatakan informasi secara optimal adalah –log2 p bits untuk messages yang
mempunyai probabilitas p.
o Sehingga jumlah bit yang diperkiraank untuk mengekstraksi S ke dalam kelas adalah:

-p+log2 p+- p-log2p-


MENGUBAH TREE MENJADI RULES

Atribut #1

Subset 1 Subset 2 Subset 3

Atribut #2 Atribut #2 Atribut #2

Subset 21 Subset
Answer 1 Answer 2
22

If atribut#1=subset2 ^ atribut#2=subset21 then


answer=answer1
If atribut#1=subset2 ^ atribut#2=subset22 then
answer=answer2
CONJUNCTION & DISJUNCTION

Cuaca

Cerah
Hujan Berawan
Angin
No No
Lambat Keras
Disjunction v
Yes No
IF cuaca=hujan v
cuaca=berawan THEN
MainTenis=No

Conjunction ^
IF cuaca=cerah ^ angin=lambat
THEN MainTenis=Yes
IF cuaca=cerah ^ angin=keras
THEN MainTenis=No

CONTOH PERMASALAHAN PENENTUAN SESEORANG MENDERITA HIPERTENSI


MENGGUNAKAN DECISION TREE
Data diambil dengan 8 sample, dengan pemikiran bahwa yang memperngaruhi seseorang menderita
hipertensi atau tidak adalah usia, berat badan, dan jenis kelamin.
Usia mempunyai instance:
o muda dan tua

Berat badan mempunyai instance:


o underweight, average dan overweight
Jenis kelamin mempunyai instance:
o pria dan wanita

DATA SAMPLE YANG DIGUNAKAN UNTUK MENENTUKAN HIPERTENSI

Nama Usia Berat Kelamin Hipertensi

Ali muda overweight pria ya

Edi muda underweight pria tidak

Annie muda average wanita tidak

Budiman tua overweight pria tidak

Herman tua overweight pria ya

Didi muda underweight pria tidak

Rina tua overweight wanita ya

Gatot tua average pria tidak

LANGKAH MENGUBAH DATA MENJADI TREE


o Menentukan Node Terpilih
o Menyusun Tree

MENENTUKAN NODE TERPILIH


o Untuk menentukan node terpilih, gunakan nilai Entropy dari setiap kriteria dengan data
sample yang ditentukan.
o Node terpilih adalah kriteria dengan Entropy yang paling kecil.
MEMILIH NODE AWAL

Usia Hipertensi Jumlah


Usia = muda
muda Ya (+) 1
1 1 3 3
muda Tidak (-) 3
q1   log2  log2  0.81
tua ya 2 4 4 4 4
tua tidak 2
Usia = tua
2 2 2 2
q2   log 2  log 2  1
4 4 4 4
Entropy untuk Usia:

4 4 4 4
E q1  q2  0.81 1  0.91
8 8 8 8

MEMILIH NODE AWAL (CONT)

Entropy = 0.91 Entropy = 0.41

Terpilih atribut BERAT BADAN


sebagai node awal karena
memiliki entropy terkecil

Entropy = 0.94
PENYUSUNAN TREE AWAL

Berat
underweight
overweight average

Ali (+) Annie (-) Didi (-)


Budiman (-) Gatot (-) Edi (-)
Herman (+)
Rina (+)

Leaf Node berikutnya dapat dipilih pada bagian yang mempunyai nilai + dan -, pada contoh di
atas hanya berat=overweight yang mempunyai nilai + dan – maka semuanya pasti mempunya leaf
node. Untuk menyusun leaf node lakukan satu-persatu.

PENENTUAN LEAF NODE UNTUK BERAT=OVERWEIGHT

Data Training untuk berat=overweight


PENYUSUNAN TREE (CONT)

Berat
underweight
overweight average

Jenis Kelamin Tidak Tidak

wanita pria
Rina (+) Ali (+)
Budiman (-)
Herman (+)

Leaf Node Usia dan Jenis Kelamin memiliki Entropy yang sama, sehingga tidak ada cara lain
selain menggunakan pengetahuan pakar atau percaya saja pada hasil acak.
HASIL TREE

Berat
underweight
overweight average

Jenis Kelamin Tidak Tidak

wanita pria

Ya Usia Nama Usia Kelamin Hipertensi


Ali muda pria ya
muda tua Budiman tua pria tidak

Ya Ya/Tidak Herman tua pria ya


Pada usia=tua ternyata ada 1 data menyatakan ya dan 1 data menyatakan tidak, keadaan ini
perlu dicermati. Pilihan hanya dapat ditentukan dengan campur tangan seoranng pakar.

MENGUBAH TREE MENJADI RULE

Berat
underweight
overweight average

Jenis Kelamin Tidak Tidak

wanita pria

Ya Usia
muda tua

Ya Tidak
R1: IF berat=average v berat=underweight THEN hipertensi=tidak
R2: IF berat=overweight^kelamin=wanita THEN hipertensi=ya
R3: IF berat=overweigt^kelamin=pria^ usia=muda THEN
hipertensi=ya
R4: IF berat=overweigt^kelamin=pria^ usia=tua THEN
hipertensi=tidak

HASIL PREDIKSI PADA DATA TRAINING

Kesalahan (e) = 12.5 %


( 1 dari 8 data )
MENYEDERHANAKAN DAN MENGUJI RULE
o Membuat table distribusi terpadu dengan menyatakan semua nilai kejadian pada setiap
rule.
o Menghitung tingkat independensi antara kriteria pada suatu rule, yaitu antara atribut dan
target atribut.
o Mengeliminasi kriteria yang tidak perlu, yaitu yang tingkat independensinya tinggi.
DISTRIBUSI TERPADU

Berat Hipertensi Jumlah

overweight ya 3

overweight tidak 1

average ya 0

average tidak 2

underweight ya 0

underweight tidak 2
UJI INDEPENDENSI DENGAN DISTRIBUSI CHI-SQUARE

Oij

Derajat Kebebasan adalah (jumlah baris-1)(jumlah kolom-1) = (2-1)(3-1)


dan nilai tingkat kepercayaan =0.05
Nilai 2a yang didapat dari tabel distribusi chi-square adalah 6.27
overweight average underweight Marginal

eij hipertensi
tidak
6
10
3
5
3
5
12
20
Marginal 16 8 8 32

 2    ij
2 3 o  eij 2
i 1 j 1 eij
(12  6) 2 (0  3) 2 (0  3) 2 (4  10) 2 (8  5) 2 (8  5) 2
     
6 3 3 10 5 5
 19.2 Karena nilai  >  a maka kriteria berat ini
2 2

HASIL UJI INDEPENDENSI UNTUK SEMUA KRITERIA

o Kriteria Berat mempunyai nilai chi-square 19.2, ini lebih besar dari nilai acuan chi-square
dengan derajat kebebasan 2 yaitu 6.27. Jadi kriteria dependent dan tidak bisa dieliminasi.
o Kriteria Usia mempunyai nilai chi-square 2.13, ini lebih besar dari nilai acuan chi-square
dengan derajat kebebasan 1 yaitu 3.89. Jadi kriteria independent dan bisa dieliminasi.
o Kriteria Jenis Kelamin mempunyai nilai chi-square 0.71, ini lebih besar dari nilai acuan chi-
square dengan derajat kebebasan 1 yaitu 3.89. Jadi kriteria independent dan bisa dieliminasi.

RULE HASIL PENYEDERHANAAN:

o R1: IF berat=average v berat=underweight THEN hipertensi=tidak

o R2: IF berat=overweight THEN hipertensi=ya


o R3: IF berat=overweigt THEN hipertensi=ya
o R4: IF berat=overweigt THEN hipertensi=tidak

RULE HASIL PENYEDERHANAAN:

o R1: IF berat=average v berat=underweight THEN hipertensi=tidak


o R2: IF berat=overweight THEN hipertensi=ya

HASIL PREDIKSI PADA DATA TRAINING

Kesalahan (e) = 12.5 %


( 1 dari 8 data )
KELEBIHAN
Di antara alat pendukung keputusan lainnya, decision tree memiliki beberapa keunggulan, yaitu:
o Mudah mengintegrasikan dengan sistem basis data.
o Memiliki ketelitian yang baik.

o Dapat menemukan gabungan tak terduga dari suatu data.


o Daerah pengambilan keputusan yang sebelumnya kompleks dan sangat global dapat
diubah menjadi lebih sederhana dan spesifik.
o Dapat melakukan eliminasi untuk perhitungan-perhitungan yang tidak diperlukan. Karena
ketika menggunakan metode ini maka sampel hanya diuji berdasarkan kriteria atau kelas
tertentu.
o Fleksibel untuk memilih fitur dari internal node yang berbeda, fitur yang terpilih akan
membedakan suatu kriteria dibandingkan kriteria yang lain dalam node yang sama.
KEKURANGAN
o Tidak stabil, yang berarti bahwa perubahan kecil dalam data dapat menyebabkan
perubahan besar dalam struktur decision tree optimal.
o Relatif tidak akurat. Banyak prediktor lain memiliki kinerja yang lebih baik dengan data
serupa. Hal ini dapat diatasi dengan mengganti decision tree tunggal dengan forest of
decision tree acak. Namun hutan yang acak tidak semudah memahami decision tree
tunggal.
o Untuk data yang termasuk variabel kategorikal dengan jumlah level yang berbeda,
perolehan informasi dalam decision tree cenderung mendukung atribut dengan level yang
lebih banyak.
o Perhitungan bisa menjadi sangat kompleks, terutama jika banyak nilai tidak pasti dan /
atau jika banyak hasil dikaitkan.

3) KLASIFIKASI ARTIFICIAL NEURAL NETWORK


o Artificial Neural Network (ANN) atau jaringan syaraf tiruan adalah jaringan dari
sekelompok unit pemroses kecil yang dimodelkan berdasarkan perilaku jaringan syaraf
manusia.
o Algoritma ANN lahir dari gagasan seorang psikolog Warren McCulloch dan Walter
Pitts pada 1943 yang menjelaskan cara kerja jaringan syaraf dengan perangkat jaringan
elektronik.
o Didalam dunia seismik eksplorasi, algoritma ANN sudah cukup populer diaplikasikan,
diantaranya untuk identifikasi noise, estimasi wavelet, analisa kecepatan, analisis
gelombang geser, autotracking reflector, prediksi hidrokarbon, karakterisasi reservoir,
dll.
Secara sederhana, dapat digambarkan arsitektur ANN adalah sebagai berikut :

Neural Network memproses informasi berdasarkan cara kerja otak manusia. Dalam hal ini
Neural Network terdiri dari sejumlah besar elemen pemrosesan yang saling terhubung dan
bekerja secara paralel untuk memecahkan suatu masalah tertentu. Di sisi lain, komputer
konvensional menggunakan pendekatan kognitif untuk memecahkan masalah; dimana cara
pemecahan masalah haruslah sudah diketahui sebelumnya untuk kemudian dibuat menjadi
beberapa instruksi kecil yang terstruktur. Instruksi ini kemudian dikonversi menjadi program
komputer dan kemudian ke dalam kode mesin yang dapat dijalankan oleh komputer

o Neural Network, dengan kemampuannya dapat digunakan untuk memperoleh


pengetahuan dari data yang rumit atau tidak tepat, serta juga dapat digunakan untuk
mengekstrak pola dan mendeteksi tren yang terlalu kompleks untuk diperhatikan baik
oleh manusia atau teknik komputer lainnya.
o Sebuah Neural Network yang telah terlatih dapat dianggap sebagai “ahli” dalam kategori
pemrosesan informasi yang telah diberikan untuk dianalisa. Ahli ini kemudian dapat
digunakan untuk menyediakan proyeksi terkait kemungkinan kondisi di masa mendatang
serta menjawab pertanyaan “bagaimana jika?”
Secara umum, ada empat macam fungsi aktivasi yang dikenal dipakai di berbagai jenis
ANN:
1. Fungsi aktivasi linear
Fungsi aktivasi ini biasanya digunakan untuk keluaran ANN yang nilai keluarannya
diskret. Jika v adalah nilai gabungan dari semua vektor oleh adder, maka sinyal keluaran
y didapatkan dengan memberikan nilai v apa adanya untuk menjadi nilai keluaran. Tidak
ada perhitungan apapun yang dilakukan pada nilai v yang didapat sehingga umumnya
ANN yang menggunakan fungsi aktivasi ini bisa dianggap tidak menggunakan fungsi
aktivasi.Nilai y sebagai nilai keluaran, diformulasikan seperti pada persamaan berikut:
 y = sign(v) = v................................................................... (5.1)
2. Fungsi aktivasi step
Jika v adalah nilai gabungan dari semua vektor oleh adder, maka keluaran y didapatkan
dengan memberikan ambang batas pada nilai v berdasarkan nilai T yang diberikan.

Nilai y diformulasikan sebagai berikut:

Bentuk di atas disebut juga ambang batas bipolar, ada juga yang berbentuk ambang batas
biner.

3. Fungsi aktivasi sigmoid biner


Untuk ANN dengan nilai keluaran kontinu biasanya menggunakan fungsi aktivasi
sigmoid.Nilai sinyal keluaran y dihitung menggunakan fungsi kurva sigmoid dengan
interval nilai keluaran mulai 0 sampai 1.
Nilai y diformulasikan sebagai berikut:

Parameter a adalah parameter kemiringan (slope) pada kurva sigmoid yang dihasilkan.
Semakin besar nilai a, maka semakin tegak kurva yang diberikan dan semakin kecil kurva
maka semakin landai kurva yang diberikan. Umumnya nilai a yang digunakan adalah 1
sehingga formula yang umum digunakan menjadi seperti berikut:

4. Fungsi aktivasi sigmoid bipolar


Fungsi aktivasi ini sebenarnya sama dengan sigmoid biner, hanya saja batas nilai
keluaran yang diberikan adalah -1 sampai 1. Fungsi aktivasi ini sangat baik digunakan
untuk proses klasifikasi karena lebih tangguh dalam menangani data-data yang banyak
didominasi oleh nilai nol.
Nilai y diformulasikan sebagai berikut:

Nilai parameter a yang digunakan umumnya 1 sehingga formula d atas menjadi seperti
berikut:

Keuntungan lainnya dari penggunaan Neural Network termasuk:


o Pembelajaran adaptif: Kemampuan untuk belajar dalam melakukan tugas-tugas
berdasarkan data yang diberikan.
o Self-Organization: Sebuah Neural Network dapat membangun representasi dari informasi
yang diterimanya selama proses pembelajaran secara mandiri.
o Operasi Real-Time: Penghitungan Neural Network dapat dilakukan secara paralel,
sehingga proses komputasi menjadi lebih cepat.

STUDI KASUS
PREDIKSI CUACA MENGGUNAKAN METODE NEURAL NETWORK
o Neural Network adalah jaringan saraf yang mensimulasikan jaringan saraf biologis
manusia kedalam arsitektur computer dan arsistektur algoritma baru terhadap computer
konvensional.
o Backpropagation merupakan metode pembelajaran jaringan syaraf tiruan yang paling
umum digunakan dan bekerja melalui proses secara iteratif dengan menggunakan
sekumpulan contoh data (data training), membandingkan nilai prediksi dari jaringan
dengan setiap contoh data
Langkah pembelajaran dalam algoritma backpropagation adalah sebagai berikut:
1. Inisialisasi bobot jaringan secara acak (biasanya antara -0.1 sampai 1.0)
2. Untuk setiap data pada data training, hitung input untuk simpul berdasarkan nilai input dan
bobot jaringan saat itu, menggunakan rumus:

Keterangan:
Oi = Output simpul i dari layer sebelumnya
Wij = bobot relasi dari simpul i pada layer sebelumnya ke simpul j
ϴj = bias (sebagai pembatas)
3. Berdasarkan input dari langkah dua, selanjutnya membangkitkan output untuk simpul
menggunakan fungsi aktivasi sigmoid:

4. Hitung nilai Error antara nilai yang diprediksi dengan nilai yang sesungguhnya menggunakan
rumus:

Keterangan:
Outputj = Output aktual dari simpul j
Targetj = Nilai target yang sudah diketahui pada data training

5. Setelah nilai Error dihitung, selanjutnya dibalik ke layer sebelumnya (backpropagated). Untuk
menghitung nilai Error pada hidden layer, menggunakan rumus:
Keterangan:
Outputj = Output aktual dari simpul j
Errork = error simpul k
Wjk = Bobot relasi dari simpul j ke simpul k pada layer berikutnya
6. Nilai Error yang dihasilkan dari langkah sebelumnya digunakan untuk memperbarui bobot
relasi menggunakan rumus:

Keterangan:
Wij = bobot relasi dari unit i pada layer sebelumnya ke unit j
l = learning rate (konstanta, nilainya antara 0 sampai dengan 1)
Errorj = Error pada output layer simpul j
Outputi = Output dari simpul i

PENGOLAHAN DATA AWAL


Merupakan tindak lanjut dari pengumpulan data, dengan melakukan normalisasi data.
Normalisasi data dilakukan sesuai fungsi aktivasi yang digunakan, dalam penelitian ini
digunakan fungsi binary sigmoid, data harus dinormalisasikan dalam range 0 sampai 1. tapi akan
lebih baik jika ditransformasikan ke interval yang lebih kecil, misal pada interval [0.1sampai 0.9]
. Maka, pada data sinoptik yang ada dilakukan transform data dengan interval [0.1,0.9], dengan
rumus sebagai berikut:

EKPERIMEN DAN PENGUJIAN METODE NEURAL NETWORK


Tabel 4.1 eksperimen untuk menentukan nilai training cycles
Eksperimen pertama dilakukan untuk mendapatkan nilai training cycles, yaitu dilakukan uji coba
dengan memasukan nilai dengan range 100 sampai dengan 1000, nilai 0.1 untuk learning rate
dan nilai 0.1 untuk momentum. Berikut hasil eksperimen terhadap training cycles.
Tabel 4.2 eksperimen untuk menentukan nilai learning rate

Untuk menentukan nilai learning rate dilakukan eksperimen dengan memasukan nilai dari 0.1
sampai dengan 0.5 , nilai training cycles yang digunakan yaitu nilai training cycles yang didapat
dari eksperimen sebelumnya yaitu 500 dan 0.1 untuk nilai momentum.
Tabel 4.3 eksperimen untuk menentukan nilai momentum
Dari hasil eksperimen untuk menentukan nilai momentum dengan nilai akurasi tertinggi didapat
pada saat momentum bernilai 0.1
Tabel 4.4 Eksperimen untuk menentukan Hidden Layer Sizes pada Hidden Layer 1

Hasil eksperimen menunjukan 1 hidden layer dengan sizes 9 yang menghasilkan nilai akurasi
tertinggi yaitu, dengan nilai 72.97 % Berdasarkan eksperimen yang telah dilakukan, didapatkan
hasil arsitektur jaringan yang dianggap terbaik yaitu dengan nilai akurasi yang paling tinggi,
sebagai berikut:
Tabel 4.5 Parameter Neural Network hasil eksperimen

KESIMPULAN
Dari penelitian yang dilakukan model yang terbentuk dengan algoritma Neural Network sendiri
memiliki tingkat akurasi yaitu sebesar 72.97% . Dengan model prediksi yang baik, dapat
memberikan informasi bagi kebijakan pemerintah dalam perencanaan pengololaan sumber daya
air kedepannya dan juga dapat memberikan informasi cuaca sedini mungkin bagi masyarakat
pengguna jasa agar dapat melakukan aktivitas kegiatannya untuk beberapa waktu kedepan.
4) SUPPORT VECTOR MACHINE
Support Vector Machine (SVM) merupakan salah satu metode dalam supervised learning yang
biasanya digunakan untuk klasifikasi (seperti Support Vector Classification) dan regresi
(Support Vector Regression). Dalam pemodelan klasifikasi, SVM memiliki konsep yang lebih
matang dan lebih jelas secara matematis dibandingkan dengan teknik-teknik klasifikasi lainnya.
SVM juga dapat mengatasi masalah klasifikasi dan regresi dengan linear maupun non linear.
SVM digunakan untuk mencari hyperplane terbaik dengan memaksimalkan jarak antar kelas.
Hyperplane adalah sebuah fungsi yang dapat digunakan untuk pemisah antar kelas. Dalam 2-D
fungsi yang digunakan untuk klasifikasi antar kelas disebut sebagai line whereas, fungsi yang
digunakan untuk klasifikasi antas kelas dalam 3-D disebut plane similarly, sedangan fungsi yang
digunakan untuk klasifikasi di dalam ruang kelas dimensi yang lebih tinggi di sebut hyperplane.
Hyperplane yang ditemukan SVM posisinya berada ditengah-tengah antara dua kelas, artinya
jarak antara hyperplane dengan objek-objek data berbeda dengan kelas yang berdekatan (terluar)
yang diberi tanda bulat kosong dan positif. Dalam SVM objek data terluar yang paling dekat
dengan hyperplane disebut support vector. Objek yang disebut support vector paling sulit
diklasifikasikan dikarenakan posisi yang hampir tumpang tindih (overlap) dengan kelas
lain.Mengingat sifatnya yang kritis, hanya support vector inilah yang diperhitungkan untuk
menemukan hyperplane yang paling optimal oleh SVM.

 contoh Tabel data :
Plat contoh data
menjelaskan bahwa terdapat 2 kelas yang terdiri dari -1 ditunjukkan dengan warna biru dan 1
ditunjukkan dengan warna orange. Pada masing-masing titik tersebut digunakan untuk mencari
pemisah

Penyelesaian sebagai berikut


Diketahui :

Dengan syarat :
yi(xi . w +b) -1 ≥ 0, i = 1,2,3,….,n
yi(x1.w1 + x2.w2 + b) ≥ 1
sehingga ditemukan persamaan sebagai berikut:
1. (𝑤1 + 𝑤2 + 𝑏 ) ≥ 1 untuk y1 = 1, x1=1, x2=1
2. (−𝑤1 + 𝑤2 − 𝑏 ) ≥ 1 untuk y2 = -1, x1=1, x2=-1
3. (𝑤1 − 𝑤2 − 𝑏 ) ≥ 1 untuk y3 = -1, x1=-1, x2=1
4. (𝑤1 + 𝑤2 − 𝑏 ) ≥ 1 untuk y1 = -1, x1=-1, x2=-1

Berdasarkan persamaan diatas, maka didapatkan nilai dari setiap variabel. Dari persamaan 1 dan 2
didapatkan:

Persamaan 1 dan 3 didapatkan :

Menjumlahkan persamaan 1 dan 3:

Menjumlahkan persamaan 2 dan 3:


Berdasarkan hasil di atas didapatkan persamaan:

berdasarkan asumsi bahwa kedua belah kelas terpisah secara sempurna oleh hyperplane. Dua
buah kelas tidak selalu terpisah secara sempurna. Hal tersebut menyebabkan constraint pada
persamaan 1 tidak terpenuhi, sehingga optimasi tidak terpenuhi dilakukan. Untuk mengatasi
masalah ini, SVM dirumuskan ulang dengan menggunakan teknik soft margin.
Contoh

o Persamaan 3.5 dimodifikasi menggunakan soft margin dengan memasukkan variabel


slack ξi (ξi > 0) sebagai berikut:
o Parameter C dipilih untuk mengontrol trade off antara margin dan error klasifikasi ξ atau
nilai kesalahan pada klasifikasi. Parameter C ditentukan dengan mencoba beberapa nilai
dan dievaluasi efeknya terhadap akurasi yang dicapai oleh SVM misalnya dengan
cara Cross Validation.  Nilai C yang besar berarti akan memberikan penalti yang lebih
besar terhadap error klasifikasi tersebut.
o Pada umumnya permasalahan data tidak dapat dipisahkan secara Linear dalam
ruang input, soft margin SVM tidak dapat menemukan pemisah
dalam hyperplane sehingga tidak dapat memiliki akurasi yang besar dan tidak
menggeneralisasi dengan baik. Oleh karena itu, dibutuhkan kernel untuk
mentransformasikan data ke ruang dimensi yang lebih tinggi yang disebut ruang kernel
yang berguna untuk memisahkan data secara Linear. Secara umum, fungsi kernel yang
sering digunakan adalah kernel Linear, Polynomial dan Radial Basis Function (RBF).

5) NEAREST NEIGHBOUR RULE


K-nearest neighbors atau knn adalah algoritma yang berfungsi untuk melakukan klasifikasi suatu
data berdasarkan data pembelajaran (train data sets), yang diambil dari k tetangga terdekatnya
(nearest neighbors). Dengan k merupakan banyaknya tetangga terdekat.
K-nearest neighbors melakukan klasifikasi dengan proyeksi data pembelajaran pada ruang
berdimensi banyak. Ruang ini dibagi menjadi bagian-bagian yang merepresentasikan kriteria
data pembelajaran. Setiap data pembelajaran direpresentasikan menjadi titik-titik c pada ruang
dimensi banyak.
A1. Klasifikasi Terdekat (Nearest Neighbor Classification)
Data baru yang diklasifikasi selanjutnya diproyeksikan pada ruang dimensi banyak yang
telah memuat titik-titik c data pembelajaran. Proses klasifikasi dilakukan dengan mencari
titik c terdekat dari c-baru  (nearest neighbor). Teknik pencarian tetangga terdekat yang
umum dilakukan dengan menggunakan formula jarak euclidean. Berikut beberapa formula
yang digunakan dalam algoritma knn.
o Euclidean Distance

Jarak Euclidean adalah formula untuk mencari jarak antara 2 titik dalam ruang dua
dimensi.

o Hamming Distance
Jarak Hamming adalah cara mencari jarak antar 2 titik yang dihitung dengan panjang
vektor biner yang dibentuk oleh dua titik tersebut dalam block kode biner.
o Manhattan Distance

Manhattan Distance atau Taxicab Geometri adalah formula untuk mencari jarak d antar 2
vektor p,q pada ruang dimensi n.
o Minkowski Distance
Minkowski distance adalah formula pengukuran antar 2 titik pada ruang vektor normal
yang merupakan hibridisasi yang menjeneralisasi euclidean distance dan mahattan
distance.Teknik pencarian tetangga terdekat disesuaikan dengan dimensi data, proyeksi,
dan kemudahan implementasi oleh pengguna.
A2. Banyaknya k Tetangga Terdekat
Untuk menggunakan algoritma k nearest neighbors, perlu ditentukan banyaknya k tetangga
terdekat yang digunakan untuk melakukan klasifikasi data baru. Banyaknya k, sebaiknya
merupakan angka ganjil, misalnya k = 1, 2, 3, dan seterusnya. Penentuan nilai k
dipertimbangkan berdasarkan banyaknya data yang ada dan ukuran dimensi yang dibentuk
oleh data. Semakin banyak data yang ada, angka k yang dipilih sebaiknya semakin rendah.
Namun, semakin besar ukuran dimensi data, angka k yang dipilih sebaiknya semakin tinggi.
A3 Algoritma K-Nearest Neighbors
o Tentukan k bilangan bulat positif berdasarkan ketersediaan data pembelajaran.
o Pilih tetangga terdekat dari data baru sebanyak k.
o Tentukan klasifikasi paling umum pada langkah (2), dengan menggunakan frekuensi
terbanyak.
o Keluaran klasifikasi dari data sampel baru.

CONTOH KASUS
o Misalnya ada sebuah rumah yang berada tepat di tengah perbatasan antara Kota Bandung
dan Kabupaten Bandung, sehingga pemerintah kesulitan untuk menentukan apakah
rumah tersebut termasuk kedalam wilayah Kota Bandung atau Kabupaten Bandung.
o Kita bisa menentukannya dengan menggunakan Algoritma K-nearest neighbors, yaitu
dengan melibatkan jarak antara rumah tersebut dengan rumah-rumah yang ada
disekitarnya (tetangganya).

Pertama, kita harus menentukan jumlah tetangga yg akan kita perhitungkan (k),
misalnya kita tentukan 3 tetangga terdekat (k = 3).

Kedua, hitung jarak setiap tetangga terhadap rumah tersebut, lalu urutkan hasilnya
berdasarkan jarak, mulai dari yang terkecil ke yang terbesar.

Ketiga, ambil 3 (k) tetangga yg paling dekat, lalu kita lihat masing-masing dari tetangga
tersebut apakah termasuk kedalam wilayah Kota atau Kabupaten. Ada 2 kemungkinan:

o Bila dari 3 tetangga tersebut terdapat ada 2 rumah yg termasuk kedalam wilayah
Kota Bandung, maka rumah tersebut termasuk kedalam wilayah Kota Bandung.
o Sebaliknya, bila dari 3 tetangga tersebut terdapat 2 rumah yg termasuk kedalam
wilayah Kabupaten Bandung, maka rumah tersebut termasuk kedalam wilayah
Kabupaten Bandung.

“Dalam menentukan nilai k, bila jumlah klasifikasi kita genap maka sebaiknya kita gunakan
nilai k ganjil, dan begitu pula sebaliknya bila jumlah klasifikasi kita ganjil maka sebaiknya
gunakan nilai k genap, karena jika tidak begitu, ada kemungkinan kita tidak akan mendapatkan
jawaban”
PEMBAHASAN LEBIH DETIL
o Pada kasus diatas, kita menghitung jarak suatu rumah terhadap tetangga-tetangganya, itu
berarti kita harus mengetahui posisi dari setiap rumah. Kita bisa menggunakan latitude
dan longitude (atau garis lintang dan garis bujur) sebagai posisi.
o Untuk mempermudah pemahaman, saya akan coba menggunakan data yang nilainya
sederhana. Data yang akan digunakan adalah sebagai berikut:

Dari data disamping, kita mendapatkan


beberapa informasi, diantaranya:

o Independent Variables, yaitu variable


yang nilainya tidak dipengaruhi oleh
variable lain. Pada contoh data diatas,
yang termasuk independent variable
adalah Lat, dan Long.
o Dependent Variables, yaitu variable
yang nilainya dipengaruhi oleh variable
lain. Pada contoh data samping, yang
termasuk dependent variable adalah
Lokasi.
o Rumah A-E adalah rumah yang masuk ke
dalam wilayah Kota.
o Rumah F-J adalah rumah yang masuk ke
dalam wilayah Kabupaten.
o Rumah X adalah rumah yang akan kita
prediksi menggunakan algoritma kNN
apakah termasuk ke dalam wilayah Kota
atau Kabupaten.
”Didalam dunia Machine Learning, Independent Variables sering disebut juga sebagai Features.”
Selanjutnya kita hitung jarak antara rumah X terhadap rumah A-J dengan menggunakan rumus
pythagoras:
Diketahui :
o x adalah Latitude
o y adalah Longitude

Dimana :
o (x1, y1) adalah latitude dan longitude dari rumah X (rumah yang akan di prediksi)
o (x2, y2) adalah latitud dan longitude dari masing-masing tetangganya.

Contoh :
Rumah H dengan latitude 21 dan longitude 24
Rumah x dengan latitude 19 dan longitude 25

2 2

d = ( x 2−x 1 ) + ( y 2− y 1 )
x x

2 2

d = ( 21−19 ) + ( 24−25 )
x x

2 2

d = ( 2 ) + (−1 )
x x

d = √ ( 4 ) +( 1 )

d = √5
= 2,23606798 (2,24)

Setelah dihitung, selanjutnya adalah urutkan jarak tersebut dari yang paling kecil ke yang paling
besar, hasilnya adalah sebagai berikut:
Dapat dilihat dari hasil perhitungan diatas, bahwa ternyata 3 tetangga terdekat dari rumah X
adalah:
o Rumah H (Kabupaten) yang memiliki jarak 2.24
o Rumah C (Kota) yang memiliki jarak 3
o Rumah E (Kota) yang memiliki jarak 3.16

Dari ke-3 tetangga terdekat, terdapat 2 rumah yang termasuk kedalam wilayah Kota dan 1
rumah yang masuk ke dalam wilayah Kabupaten. Sehingga dapat disimpulkan, bahwa Rumah X
adalah rumah yang termasuk kedalam wilayah Kota Bandung.

KELEBIHAN 
Kelebihan Algoritma k-NN atau k-Nearest Neighbor diantaranya seperti

o Perhitungannya Sederhana
o Komputasinya Rendah
o Algoritma Mudah dipelajari
o Tahan terhadap derau
o Efektif jika set data latih yang digunakan sangat besar.

KELEMAHAN
Sedangkan kelemahan dari KNN adalah :
o KNN perlu menentukan nilai dari parameter K (jumlah dari tetangga terdekat)
o Pembelajaran berdasarkan jarak tidak jelas mengenai jenis jarak apa yang harus digunakan
dan atribut mana yang harus digunakan untuk mendapatkan hasil yang terbaik
o Biaya komputasi cukup tinggi karena diperlukan perhitungan jarak dari tiap sample
uji pada keseluruhan sample latih

6) KLASIFIKASI BERBASIS FUZZY LOGIC

o Logika Fuzzy merupakan suatu logika yang memiliki nilai kekaburan atau kesamaran


(fuzzyness) antara benar atau salah. Adalah Profesor Lotfi A. Zadeh guru besar
pada University of California, Berkeley yang merupakan pencetus sekaligus yang
memasarkan ide tentang cara mekanisme pengolahan atau manajemen ketidakpastian yang
kemudian dikenal dengan logika  fuzzy.
o Logika fuzzy pertama kali dikembangkan oleh Lotfi A. Zadeh melalui tulisannya pada tahun
1965 tentang teori himpunan fuzzy.
o Logika fuzzy dapat digunakan dalam bidang teori kontrol, teori keputusan, dan beberapa
bagian dalam managemen sains.
o Logika fuzzy umumnya diterapkan pada masalah-masalah yang mengandung unsur
ketidakpastian (uncertainty), ketidaktepatan (imprecise), noisy, dan sebagainya. 
o Logika fuzzy menjembatani bahasa mesin yang presisi dengan bahasa manusia yang
menekankan pada makna atau arti (significance). Logika fuzzy dikembangkan berdasarkan
bahasa manusia (bahasa alami).
KELEBIHAN
Beberapa kelebihan yang dimiliki oleh logika fuzzy yaitu:
o Konsep logika fuzzy mudah dimengerti, dimana konsep matematis yang mendasari fuzzy
sangat sederhana dan mudah dimengerti.
o Logika fuzzy bekerja didasarkan pada bahasa alami.
o Logika fuzzy memiliki toleransi terhadap data-data yang tidak tepat.
o Logika fuzzy mampu memodelkan fungsi-fungsi nonlinier yang sangat kompleks.
o Logika fuzzy dapat bekerja sama dengan teknik-teknik kendali secara konventional.

Fuzzy logic sudah diterapkan pada banyak bidang diantaranya:


o Teori kendali hingga inteligensia buatan. 

o Di dunia kedokteran dan biologi: Diagnosis penyakit pasien, penelitian kanker, dsb.
o Manajemen pengambilan keputusan: Manajemen basis data untuk query data 

o Tata letak pabrik yang maksimal Penentuan jumlah produksi berdasarkan jumlah stok
dan permintaan. 
o Klasifikasi dan pencocokan pola.  
o Mengukur kualitas air, peramalan cuaca, dll

Di dalam perhitungan logika fuzzy terdapat beberapa metode, yaitu metode Tsukamoto, metode
Mamdani, dan metode Takagi-Sugeno. Setiap metode tersebut memiliki cara dan hasil
perhitungan yang berbeda.

1. Fuzzy Tsukamoto
Pada Metode Tsukamoto, setiap konsekuen pada aturan yang berbentuk IF-Then harus
direpresentasikan dengan suatu himpunan fuzzy dengan fungsi keanggotaan yang
monoton. Sebagai hasilnya, output hasil inferensi dari tiap-tiap aturan diberikan secara
tegas (crisp) berdasarkan α-predikat (fire strength). Hasil akhir menggunakan rata-rata
terbobot, dalam inferensinya, metode Tsukamoto menggunakan tahapan berikut :
1. Pembentukan himpunan fuzzy. Variabel input maupun output dibagi menjadi satu atau
lebih himpunan fuzzy
2. Fuzzifikasi, yaitu menetukan derajat keanggotaan varibel input
3. Pembentukan basis pengetahuan Fuzzy (Rule dalam bentuk IF….THEN)
4. Implikasi dengan fungsi MIN untuk mendapatkan nilai α-predikat tiap-tiap rule (α1,
α2, α3,….. αn) Kemudian masing-masing nilai α-predikat ini digunakan untuk
menghitung keluaran hasil inferensi secara tegas (crisp) masing-masing rule (z1, z2,
z3,….. zn )
5. Defuzzifikasi Menggunakan metode rata-rata :

Keterangan :
Z= Variabel output
αi = Nilai α predikat
zi = Nilai variabel output
2. Fuzzy Takagi-Sugeno
Metode ini diperkenalkan oleh Takagi-Sugeno pada tahun 1985. Aturan sistem inferensi
fuzzy Sugeno merupakan toolbox untuk membangun sistem fuzzy logic berdasarkan
Metode Sugeno. Keuntungan menggunakan metode Takagi – Sugeno ini di antaranya:
o Lebih efisien dalam masalah komputasi
o Bekerja paling baik untuk teknik-teknik linear

o Bekerja paling baik untuk teknik optimasi dan adaptif


o Menjamin kontinuitas permukaan output Output fuzzy Sugeno berupa
defuzzyfikasi.
Sistem fuzzy Sugeno memperbaiki kelemahan yang dimiliki oleh sistem fuzzy
Tsukamoto untuk menambah suatu perhitungan matematika sederhana sebagai
bagian THEN. Pada perubahan ini, sistem fuzzy memiliki suatu nilai rata-rata
tertimbang (Weighted Average Values) di dalam bagian aturan fuzzy IF-THEN.
Rumus Metode Takagi-Sugeno
Rumus umum untuk fuzzifikasi metode Fuzzy Inference System Takagi-
Sugeno yaitu sebagai berikut :

Keterangan :
x = Bobot nilai yang sudah ditentukan pada setiap gejala yang dipilih
a = Batas nilai minimum pada setiap gejala
b = Nilai tengah dari batas minimum dan maksimum
c = Batas nilai maksimum pada setiap gejala
Rumus umum untuk defuzzifikasi metode Fuzzy Inference System TakagiSugeno-
Kang yaitu sebagai berikut :

Keterangan :
WA = (Weighted Average) Nilai rata-rata
an = Nilai predikat aturan ke-n
zn = Indeks nilai input (konstanta) ke-n
3. Metode Mamdani
Metode Mamdani sering juga dikenal dengan nama metode MIN - MAX. Metode ini
diperkenalkan oleh Ebrahim Mamdani pada tahun 1975. Sistem ini berfungsi
untuk mengambil keputusan melalui proses tertentu dengan mempergunakan
aturan inferensi berdasarkan logika fuzzy.Untuk mendapatkan output,diperlukan 3
tahapan:
a) Pembentukan himpunan fuzzy
Pada metode mamadani,baik variabel input maupun variabel output dibagi
menjadi satu atau lebih himpunan fuzzy.
b) Aplikasi fungsi implikasi
Pada metode mamdani ,fungsi implikasi yang digunakan adalah Min.
c) Komposisi Aturan
Apabila sistem terdiri dari beberapa aturan,maka inferensi diperoleh dari
gabungan antar aturan.
Ada tiga metode yang digunakan dalam melakukan inferensi sistem fuzzy,
yaitu: max, additive dan probabilistik OR (probor).
1. Metode Max (Maximum)
Pada metode ini, solusi himpunan fuzzy diperoleh dengan cara mengambil nilai
maksimum aturan, kemudian menggunakannya untuk memodifikasi daerah
fuzzy, dan mengaplikasikannya ke output dengan menggunakan operator OR
(union). Jika semua proposisi telah dievaluasi, maka output akan berisi suatu
himpunan fuzzy yang merefleksikan konstribusi dari tiap-tiap proposisi. Secara
umum dapat dituliskan:

2. Metode Additive (Sum)


Pada metode ini, solusi himpunan fuzzy diperoleh dengan cara melakukan
bounded-sum terhadap semua output daerah fuzzy. Secara umum dituliskan:

Keterangan :
Usf[xi] = nilai keanggotaan solusi fuzzy sampai aturan ke-i;
Ukf[xi] = nilai keanggotaan konsekuen fuzzy aturan ke-i.

Metode Probabilistik OR (probor)


Pada metode ini, solusi himpunan fuzzy diperoleh dengan cara melakukan
product terhadap semua output daerah fuzzy.
Secara umum dituliskan:

Usf[xi] = nilai keanggotaan solusi fuzzy sampai aturan ke-i


Ukf[xi] = nilai keanggotaan konsekuen fuzzy aturan ke-i
3. Penegasan (defuzzifikasi)
Input dari proses defuzzifikasi adalah suatu himpunan fuzzy yang diperoleh dari
suatu komposisi aturan – aturan fuzzy, sedangkan output yang dihasilkan
merupakan suatu bilangan pada himpunan fuzzy tersebut. Sehingga jika diberikan
suatu himpunan fuzzy dalam range tertentu, maka harus dapat diambil suatu nilai
crisp tertentu sebagai output.
Ada beberapa metode defuzzifikasi pada komposisi aturan Mamdani, antara lain:
 Metode Centroid (Composite Moment)
Pada metode ini, solusi crisp diperoleh dengan cara mengambil titik pusat daerah
fuzzy. Secara umum dirumuskan:
Type equation here .
, untuk domain kontinyu

Keterangan:
Z = nilai domain ke – i,
𝜇 (Z) = derajat keanggotaan titik tersebut,
Z0 = nilai hasil penegasan (defuzzyfikasi).

, untuk domain diskret

Keterangan:
Z = nilai hasil penegasan (defuzzyfikasi)
di = nilai keluaran pada aturan ke i
𝑈𝐴𝑖(di) = derajat keanggotaan nilai keluaran pada aturan ke –i
n = banyaknya aturan yang digunakan.
 Metode Bisektor
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai pada domain
fuzzy yang memiliki nilai keanggotaan setengah dari jumlah total nilai keanggotaan
pada daerah fuzzy. Secara umum dituliskan:

Keterangan :
d = nilai hasil penegasan (defuzzyfikasi),
di = nilai keluaran pada aturan ke-i,
U𝐴𝑖 (di) = derajat keanggotaan nilai keluaran pada aturan ke – i,
n = banyak aturan yang digunakan
 Metode Mean of Maksimum (MOM)
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai rata – rata
domain yang memiliki nilai keanggotaan maksimum.
 Metode Largest of Maximum (LOM)
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai terbesar dari
domain yang memiliki nilai keanggotaan maksimum.
 Metode Smallest of Maximum (SOM)
Pada metode ini, solusi crisp diperoleh dengan cara mengambil nilai terkecil dari
domain yang memiliki nilai keanggotaan maksimum

CONTOH KASUS KLASIFIKASI FUZZY LOGIC MENGGUNAKAN METODE TSUKAMOTO


Berdasarkan data penjualan setiap
bulannya,data yang diambila adalah
data variabel permintaan,data variabel
pekerja,dan data vaiabel produksi dari
bulan januari 2017 dan desember
2017.
PERTANYAANNYA ?
Berapa jumlah produksi dalam perusahaan jika ada
permintan sebanyak 8000 dan jumlah pekerja
sebanyak 10 pekerja.Dengan rules yang telah ditentukan sbb :
[R1] Jika permintaan TURUN dan pekerja SEDIKIT maka produksi BERKURANG
[R2] Jika permintaan TURUN dan pekerja SEDANG maka produksi BERKURANG
[R3] Jika permintaan TURUN dan pekerja BANYAK maka produksi BERKURANG
[R4] Jika permintaan BIASA dan pekerja SEDIKIT maka produksi BERKURANG
[R5] Jika permintaan BIASA dan pekerja BIASA maka produksi BERTAMBAH
[R6] Jika permintaan BIASA dan pekerja BANYAK maka produksi BERTAMBAH
[R7] Jika permintaan NAIK dan pekerja SEDIKIT maka produksi BERKURANG
[R8] Jika permintaan NAIK dan pekerja SEDANG maka produksi BERTAMBAH
[R9] Jika permintaan NAIK dan pekerja BANYAK maka produksi BERTAMBAH

1. PEMBENTUKAN HIMPUNAN FUZZY

FUNGSI KEANGGOTAAN HIMPUNAN PERMINTAAN


FUNGSI KEANGGOTAAN HIMPUNAN PEKERJA

2. FUZZYFIKASI
3. OPERASI FUZZY LOGIC

[R1] Jika permintaan TURUN dan pekerja SEDIKIT maka produksi BERKURANG

[R2] Jika permintaan TURUN dan pekerja SEDANG maka produksi BERKURANG

[R3] Jika permintaan TURUN dan pekerja BANYAK maka produksi BERKURANG

[R4] Jika permintaan BIASA dan pekerja SEDIKIT maka produksi BERKURANG

[R5] Jika permintaan BIASA dan pekerja BIASA maka produksi BERTAMBAH

[R6] Jika permintaan BIASA dan pekerja BANYAK maka produksi BERTAMBAH
[R7] Jika permintaan NAIK dan pekerja SEDIKIT maka produksi BERKURANG

[R8] Jika permintaan NAIK dan pekerja SEDANG maka produksi BERTAMBAH

[R9] Jika permintaan NAIK dan pekerja BANYAK maka produksi BERTAMBAH

4. IMPLIKASI
5. DEFUZZYFIKASI
Nilai Z akhir rata rata terbobot :

Jadi,jumlah barang yang akan diproduksi adalah 9000


7) ENSEMBLE LEARNING
Metode ensemble atau metode ansamble adalah algoritma dalam pembelajaran mesin (machine
learning) dimana algoritma ini sebagai pencarian solusi prediksi terbaik dibandingkan dengan
algoritma yang lain karena metode ensemble ini menggunakan beberapa algoritma pembelajaran
untuk pencapaian solusi prediksi yang lebih baik daripada algoritma yang bisa diperoleh dari
salah satu pembelajaran algoritma kosituen saja. Tidak seperti ansamble statistika didalam
mekanika statistika biasanya selalu tak terbatas. Ansemble Pembelajaran hanya terdiri dari
seperangkat model alternatif yang bersifat terbatas, namun biasanya memungkinkan untuk
menjadi lebih banyak lagi struktur fleksibel yang ada diantara alternatif model itu
sendiri.Evaluasi prediksi dari ensemble biasanya memerlukan banyak komputasi daripada
evaluasi prediksi model tunggal (single model), jadi ensemble ini memungkinkan untuk
mengimbangi poor learning algorithms oleh performasi lebih dari komputasi itu.

Algoritma cepat(fast algorithms) seperti decision trees biasanya dipakai dalam metode ensemble


ini seperti random forest, meskipun algoritma yang lebih lambat dapat memperoleh manfaat dari
teknik ensemble juga.

JENIS METODE ENSEMBLE


Beberapa konsep dasar pada metode ini sebelum dibahas lebih lanjut adalah:

Rata-rata: Ini didefinisikan sebagai mengambil rata-rata prediksi dari model dalam kasus
masalah regresi atau saat memprediksi probabilitas untuk masalah klasifikasi.

Sampel1 Sampel2 Sampel3 Sampel4

44 39 67 50

Vote: Ini didefinisikan sebagai mengambil prediksi dengan suara / rekomendasi maksimum dari
berbagai model prediksi sambil memprediksi hasil dari masalah klasifikasi.

Sampel1 Sampel2 Sampel3 Sampel4

1 0 1 1

Weight Rata-rata: Dalam hal ini, bobot yang berbeda diterapkan pada prediksi dari beberapa
model kemudian mengambil rata-rata yang berarti memberikan manfaat tinggi atau rendah ke
keluaran model tertentu.

Sampel1 Sampel2 Sampel3 Sampel4

0,4 O,3 0,3


Weight

Predic 44 39 67 48

BAGGING
Bagging merupakan metode yang dapat memperbaiki hasil dari algoritma klasifikasi machine
learning dengan menggabungkan klasifikasi prediksi dari beberapa model. Hal ini digunakan
untuk mengatasi ketidakstabilan pada model yang kompleks dengan kumpulan data yang relatif
kecil. Bagging adalah salah satu algoritma berbasis ensemble yang paling awal dan paling
sederhana, namun efektif. Bagging paling cocok untuk masalah dengan dataset pelatihan yang
relatif kecil. Bagging mempunyai variasi yang disebut Pasting Small Votes. cara ini dirancang
untuk masalah dengan dataset pelatihan yang besar, mengikuti pendekatan yang serupa, tetapi
membagi dataset besar menjadi segmen yang lebih kecil. Penggolong individu dilatih dengan
segmen ini, yang disebut bites, sebelum menggabungkannya melalui cara voting mayoritas.

FIGURE BAGGING

Bagging mengadopsi distribusi bootstrap supaya menghasilkan base learner yang berbeda, untuk
memperoleh data subset. sehingga melatih base learners. dan bagging juga mengadopsi strategi
aggregasi output base leaner, yaitu metode voting untuk kasus klasifikasi dan averaging untuk
kasus regresi.

BOOSTING

Boosting merupakan cara untuk menghasilkan beberapa model atau penggolongan untuk prediksi
atau klasifikasi, dan juga menggabungkan prediksi dari berbagai model ke dalam prediksi
tunggal. Boosting adalah pendekatan iteratif untuk menghasilkan pengklasifikasi yang kuat, yang
mampu mencapai kesalahan training seminimal mungkin dari sekelompok pengklasifikasi yang
lemah. yang masing-masing hampir tidak dapat melakukan lebih baik daripada tebakan acak.

Boosting di rancang untuk masalah kelas biner, menciptakan kumpulan dari tiga klasifikasi yang
lemah pada satu waktu. klasifikasi pertama (atau hipotesis) adalah memproses subset acak dari
data training yang tersedia. klasifikasi kedua adalah subset yang berbeda dari dataset asli, dimana
hasil dari klasifikasi pertama yang sudah benar di klasifikasi dan setengahnya lagi salah
diklasifikasi. klasifikasi ketiga kemudian dilatih dengan contoh di mana klasifikasi pertama dan
klasifikasi kedua tidak setuju. Ketiga pengklasifikasi ini kemudian digabungkan melalui suara
mayoritas tiga arah.
Figure boosting

STACKING

Stacking merupakan cara untuk mengkombinasi beberapa model, dengan konsep meta learner.
dipakai setelah bagging dan boosting. tidak seperti bagging dan boosting, stacking
memungkinkan mengkombinasikan model dari tipe yang berbeda. Ide dasarnya adalah untuk
train learner tingkat pertama menggunakan kumpulan data training asli, dan kemudian
menghasilkan kumpulan data baru untuk melatih learner tingkat kedua, di mana output dari
learner tingkat pertama dianggap sebagai fitur masukan sementara yang asli label masih
dianggap sebagai label data training baru. Pembelajar tingkat pertama sering dihasilkan dengan
menerapkan algoritma learning yang berbeda.Dalam fase training pada stacking, satu set data
baru perlu dihasilkan dari classifier tingkat pertama. Jika data yang tepat yang digunakan untuk
melatih classifier tingkat pertama juga digunakan untuk menghasilkan kumpulan data baru untuk
melatih classifier tingkat kedua. proses tersebut memiliki risiko yang tinggi yang akan
mengakibatkan overfitting. sehingga disarankan bahwa contoh yang digunakan untuk
menghasilkan kumpulan data baru dikeluarkan dari contoh data training untuk learner tingkat
pertama, dan prosedur crossvalidasi.

Figure Stacking
KEUNTUNGAN

 Ensembling adalah metode yang terbukti untuk meningkatkan akurasi model dan bekerja
di sebagian besar kasus.
 Ini adalah bahan utama untuk memenangkan hampir semua hackathon pembelajaran
mesin.
 Ensembling membuat model lebih kuat dan stabil sehingga memastikan kinerja yang
layak pada uji kasus di sebagian besar skenario.
 Untuk menangkap hubungan kompleks linier dan sederhana serta non-linear dalam data.
Ini dapat dilakukan dengan menggunakan dua model yang berbeda dan membentuk
ensemble dua.

KEKURANGAN

 Ensembling mengurangi interpretability model dan membuatnya sangat sulit untuk


menarik wawasan bisnis penting di akhir.
 Memakan waktu dan dengan demikian mungkin bukan ide terbaik untuk aplikasi real-
time.
 Pemilihan model untuk menciptakan ensemble adalah seni yang benar-benar sulit untuk
dikuasai.

8) DEEP LEARNING
Deep Learning atau dikenal juga dengan Deep Structured Learning atau Hierarchical Learning
merupakan bagian dari pembelajaran Machine Learning yang menggunakan artificial neural
networks (ANN). Singkatnya, deep learning adalah metode pembelajaran oleh mesin dengan
meniru cara kerja sistem saraf otak manusia. Seperti yang diketahui bahwa sistem saraf otak
manusia sangat kompleks dan ini yang membuat kita bisa mengenali berbagai macam benda,
warna, dan sebagainya. Inilah yang diadaptasi oleh deep learning. Disebut deep karena jumlah
struktur dan jaringan dalam pembelajarannya sangatlah banyak bisa mencapai ratusan. Jaringan
saraf deep learning mempelajari metadata sebagai input dan mengolahnya menggunakan lapisan
tersembunyi transformasi non linear dari data input untuk menghasilkan output. Algoritma deep
learning dapat melakukan pembelajaran secara mandiri sehingga dapat digunakan sebagai
pedoman dalam pemecahan suatu masalah dari yang mudah hingga yang kompleks. Semakin
banyak data yang digunakan untuk melatih algoritmanya, maka semakin bertambah banyak dan
kompleks lapisan jaringannya.
JENIS-JENIS ALGORITMA DEEP LEARNING
1.Deep Neural Networks (DNN)
Algoritma DNN (Deep Neural Networks) adalah salah satu algoritma berbasis jaringan saraf
yang dapat digunakan untuk pengambilan keputusan. Contoh yang dibahas kali ini adalah
mengenai penentuan penerimaan pengajuan kredit sepeda motor baru berdasarkan kelompok
data yang sudah ada. Inti perhitungan pada algoritma berbasis jaringan adalah untuk mencari
bobot terbaik dari contoh / sampel data yang sudah ada. Karena hasil pada contoh data sudah
diketahui, maka nilai bobot akan dihitung berdasarkan nilai hasil yang sudah tersedia, sampai
ditemukan nilai bobot terbaik yang paling banyak cocok apabila dihitungkan kembali pada
data awal. Kemudian nilai bobot tersebut dapat digunakan untuk menghitung data lain yang
tidak diketahui hasilnya. Pada kasus ini, metode yang digunakan untuk mencari bobot terbaik
adalah menggunakan metode PSO (Particle Swarm Optimization).
2.Artificial Neural Networks (ANN)
Artificial Neural Networks yang biasa disingkat dengan ANN adalah bagian yang paling ajaib
dari deep learning. ANN ini mensimulasikan kerja otak kita yang tersusun jaringan saraf yang
disebut neuron. Sama seperti sistem otak manusia, dalam jaringan artificial neural network ini
si mesin menerima informasi pada titik-titik yang disebut nodes yang terkumpul pada satu
layer untuk kemudian diteruskan dan diproses ke layer selanjutnya yang disebut hidden
layers. Seperti contoh kita mempunyai gambar berupa tulisan tangan angka 9 berukuran
28×28 pixel. Setiap piksel dari gambar ini kemudian dipecah menjadi nodes dalam layer
input. Sehingga kita memiliki 784 nodes. Lalu untuk mengetahui angka apa itu, kita harus
menset nodes output sebanyak 10 (0-9). Dalam hidden layers informasi tersebut difilter
hingga akhirnya diteruskan dan informasi masuk di nodes output 9. Yang perlu kita lakukan
memasukkan angka yang ditulis tangan sebanyak mungkin dan menentukan outputnya
sehingga terbentuk suatu pola dalam hidden layers. Jika pola dalam hidden layers sudah
terbentuk, kita tinggal mengetes sejauh mana si mesin dapat mengenali gambar

3.Convolutional Neural Networks (CNN)


Terakhir adalah Convolutional Neural Networks (CNN). Dalam kasus image recognition
untuk gambar objek kucing di atas, metode yang digunakan sudah lebih canggih lagi dari
ANN yang disebut Convolutional Neural Networks (CNN). Secara komputasi, metode CNN
ini lebih irit daya, bayangkan jika gambar kucing tersebut berukuran 1920×1080 pixel. Ini
berarti ada 2.073.600 nodes yang harus dibuat pada layer input. Belum lagi jika gambar
tersebut berwarna di mana setiap pixel terdiri dari 3 warna RGB. Berarti jumlah nodes yang
sudah banyak tadi harus dikalikan 3. Bisa dibayangkan berapa jumlah nodes pada layer
pertama. CNN memindai bagian per bagian area kecil di dalam gambar tersebut untuk
dijadikan node. Setiap angka dalam nodes merupakan hasil penghitungan matriks dari
filter/kernel. Dalam CNN, terdapat bagian yang sama antara node satu dengan node yang ada
di sebelahnya. Itulah mengapa tadi dikatakan bahwa node dalam CNN selalu terhubung.
CONTOH PENERAPAN DEEP LEARNING
Tanpa disadari sebenarnya kita sering jumpai dan gunakan teknologi yang menerapkan deep
learning. Contoh penerapan deep learning yaitu fitur face unlock di smartphone. Kita bisa
membuka kunci smartphone hanya dengan mendeteksi wajah pemilik smartphone. Deep
learning juga saat ini diterapkan dalam lalu lintas seperti sistem tilang otomatis. Dengan
pembelajaran deep learning, pelanggaran lalu lintas akan otomatis terdeteksi. Pelanggar akan
mendapatkan surat tilang yang langsung dikirim ke rumah. Diharapkan penerapan sistem ini
akan meminimalisir pelanggaran lalu lintas. Di bidang kesehatan deep learning juga dapat
digunakan misalnya pada rontgen untuk mengidentifikasi dan mengklasifikasikan suatu
penyakit.

Anda mungkin juga menyukai