Anda di halaman 1dari 36

Nama Anggota:

1. Gurfan Ghozian Rizky (021190094)


2. Imbran Darwis (021190012)
3. Indah Mayang Sari (021190108)

Diskusikan tentang:
1. Klasifikasi Bayes
Klasifikasi Naïve Bayes (Bayesian Classification) merupakan salah satu metode
klasifikasi dalam data mining menggunakan metode probabilitas dan statistik yang
dikemukakan oleh ilmuwan Inggris Thomas Bayes , yaitu memprediksi peluang di masa
depan berdasarkan pengalaman di masa sebelumnya. Ciri utama dari Naïve Bayes
Classifier ini adalah asumsi yg sangat kuat (naïf) akan independensi dari masing-masing
kondisi / kejadian.
Keuntungan penggunan Klasifikasi Naïve Bayes adalah bahwa metoda ini hanya
membutuhkan jumlah data pelatihan ( training data ) yang kecil untuk menentukan
estimasi parameter yang diperlukan dalam proses pengklasifikasian.

Kegunaan Klasifikasi Naïve Bayes


 Mengklasifikasikan dokumen teks seperti teks berita ataupun teks akademis
 Sebagai metode machine learning yang menggunakan probabilitas
 Untuk membuat diagnosis medis secara otomatis
 Mendeteksi atau menyaring spam

Kelebihan Klasifikasi Naïve Bayes


 Bisa dipakai untuk data kuantitatif maupun kualitatif
 Tidak memerlukan jumlah data yang banyak
 Tidak perlu melakukan data training yang banyak
 Jika ada nilai yang hilang, maka bisa diabaikan dalam perhitungan.
 Perhitungannya cepat dan efisien
 Mudah dipahami dan mudah dibuat
 Pengklasifikasian dokumen bisa dipersonalisasi, disesuaikan dengan kebutuhan
setiap orang
 Jika digunakan dalam bahasa pemrograman, code-nya sederhana
 Bisa digunakan untuk klasifikasi masalah biner ataupun multiclass

Kekurangan Klasifikasi Naïve Bayes


 Apabila probabilitas kondisionalnya bernilai nol, maka probabilitas prediksi juga
akan bernilai nol
 Asumsi bahwa masing-masing variabel independen membuat berkurangnya akurasi,
karena biasanya ada korelasi antara variabel yang satu dengan variabel yang lain.
 Keakuratannya tidak bisa diukur menggunakan satu probabilitas saja. Butuh bukti-
bukti lain untuk membuktikannya.
 Untuk membuat keputusan, diperlukan pengetahuan awal atau pengetahuan
mengenai masa sebelumnya. Keberhasilannya sangat bergantung pada pengetahuan
awal tersebut Banyak celah yang bisa mengurangi efektivitasnya.
 Dirancang untuk mendeteksi kata-kata saja, tidak bisa berupa gambar.

Tahapan proses Klasifikasi Naïve Bayes


1. Menghitung jumlah kelas / label
2. Menghitung Jumlah Kasus Per Kelas
3. Kalikan Semua Variable Kelas
4. Bandingkan Hasil Per Kelas

Teorema Naïve Bayes

Keterangan
 X : Data dengan class yang belum diketahui
 H : Hipotesis data merupakan suatu class spesifik
 P(H|X) : Probabilitas hipotesis H berdasar kondisi X
 P(H) : Probabilitas hipotesis H
 P(X|H) : Probabilitas X berdasarkan kondisi pada hipotesis H
 P(X) : Probabilitas X
Contoh Kasus

Apabila ada data sebagai berikut:


a. Outlook : Sunny
b. Temperature : Cool
c. Humidity : High
d. Wind : Strong
Apakah akan bermain tenis?

1. Menghitung jumlah kelas / label “P(H)”


 C1 (Class 1) => Play Tennis = Yes => 9 record
 C2 (Class 2) => Play Tennis = No => 5 rocord
 Total record = 14

P(Play Tennis = Yes) = 9/14 = 0,64


P(Play Tennis = No) = 5/14 = 0,36
2. Menghitung Jumlah Kasus Per Kelas “P(X|H)”
 P(Outlook = Sunny | Play Tennis = Yes) = 2/9 = 0,22
 P(Outlook = Sunny | Play Tennis =No) = 3/5 = 0,6
 P(Temperature = Cool | Play Tennis = Yes) = 3/9 = 0,33
 P(Temperature = Cool | Play Tennis = No) = 1/5 = 0,2
 P(Humadity = High | Play Tennis = Yes) = 3/9 = 0,33
 P(Humadity = High | Play Tennis = No) = 4/5 = 0,8
 P(Wind = Strong | Play Tennis = Yes) = 3/9 = 0,33
 P(Wind = Strong | Play Tennis = No) = 3/5 = 0,6

3. Kalikan Semua Variable Kelas “P(X|H) x P(H)”


 P(X | Play Tennis = Yes) x P(Play Tennis = Yes)
= 0,22 x 0,33 x 0,33 x 0,33 x 0,64 = 0,00505
 P(X | Play Tennis = No) x P(Play Tennis = No)
= 0,6 x 0,2 x 0,8 x 0,6 x 0,36 = 0,02073

4. Bandingkan Hasil Per Kelas


P(X | Play Tennis = No) > P(X | Play Tennis = Yes)
Prediksi atau klasifikasi adalah nilai terbesar.

2. Decision Tree
Decision tree merupakan metode klasifikasi data mining. Decision tree dalam istilah
pembelajaran merupakan sebuah struktur pohon dimana setiap node pohon
mempresentasikan atribut yang telah diuji. Setiap cabang merupakan suatu pembagian
hasil uji dan node daun (leaf) mempresentasikan kelompok kelas tertentu. Level node
teratas dari sebuah Decision Tree adalah node akar (root) yang biasanya berupa atribut
yang paling memiliki pengaruh terbesar pada suatu kelas tertentu. Pada umumnya
Decision Tree melakukan strategi pencarian secara top-down untuk solusinya. Pada
proses mengklasifikasi data yang tidak diketahui, nilai atribut akan diuji dengan cara
melacak jalur dari node akar (root) sampai node akhir (daun) dan kemudian akan
diprediksi kelas yang dimiliki oleh suatu data baru tertentu.
Model Decision Tree:
Decision tree adalah flow-chart seperti struktur tree, dimana tiap internal node
menunjukkan sebuah test pada sebuah atribut, tiap cabang menunjukkan hasil dari test,
dan leaf node menunjukkan class-class atau class distribution. Selain karena
pembangunannya relatif cepat, hasil dari model yang dibangun mudah untuk dipahami.
Pada decision tree terdapat 3 jenis node, yaitu:
a. Root Node, merupakan node paling atas, pada node ini tidak ada input dan bisa tidak
mempunyai output atau mempunyai output lebih dari satu.
b. Internal Node, merupakan node percabangan, pada node ini hanya terdapat satu
input dan mempunyai output minimal dua.
c. Leaf node atau terminal node, merupakan node akhir, pada node ini hanya terdapat
satu input dan tidak mempunyai output.

Contoh dari model pohon keputusan yaitu seperti pada gambar berikut:

Kelebihan Decision Tree:


1. Mudah dibaca dan ditafsirkan
Salah satu keuntungan dari pohon keputusan adalah outputnya mudah dibaca dan
diinterpretasikan, bahkan tanpa memerlukan pengetahuan statistik.
2. Mudah disiapkan
Dibandingkan dengan teknik keputusan lainnya, pohon keputusan membutuhkan
sedikit usaha untuk persiapan data. Pengguna juga dapat membuat klasifikasi data
tanpa harus menghitung perhitungan yang rumit. Untuk situasi yang kompleks,
pengguna dapat menggabungkan pohon keputusan dengan metode lain.
3. Lebih sedikit pembersihan data yang diperlukan
Keuntungan lain dari pohon keputusan adalah, setelah variabel dibuat, pembersihan
data lebih sedikit diperlukan.

Kekurangan Decision Tree


1. Sifat tidak stabil
Salah satu keterbatasan pohon keputusan adalah bahwa mereka sebagian besar tidak
stabil dibandingkan dengan prediktor keputusan lainnya. Perubahan kecil pada data
dapat menghasilkan perubahan besar dalam struktur pohon keputusan, yang dapat
menyampaikan hasil yang berbeda dari apa yang akan diperoleh pengguna dalam
peristiwa normal.
2. Kurang efektif dalam memprediksi hasil dari variabel kontinu
Selain itu, decision tree kurang efektif dalam membuat prediksi ketika tujuan
utamanya adalah untuk memprediksi hasil dari variabel kontinu. Ini karena pohon
keputusan cenderung kehilangan informasi saat mengkategorikan variabel ke dalam
beberapa kategori.

Proses dalam Decision Tree


 Pilih atribut sebagai akar
 Buat cabang untuk tiap – tiap nilai
 Ulangi proses yang sama untuk setiap cabang sampai semua kasus pada cabang
memiliki kelas yang sama
Contoh kasus

 Pilih atribut sebagai akar


Outlook Play Jumlah
Sunny Yes 2
Sunny No 3
Cloudy Yes 4
Cloudy No 0
Rainy Yes 4
Rainy No 1

 Entropy total

Entropy = ( −414 log 144 )+( −10


2
14
log
14 )
10
2= 0,86

 Entropy Outlook
 Outlook = Sunny

Entropy = ( −35 log 35 )+(−25 log 25 )= 0,97


2 2

 Outlook = Cloudy

Entropy = ( −04 log 04 )+(−44 log 44 )= 0,00


2 2

 Outlook = Rainy
Entropy = ( −1
5 )(
1 −4
log 2 +
5 5
4
)
log 2 = 0,72
5

 Entropy Temperature
 Temperature = Hot

Entropy = ( −24 log 24 )+( −24 log 24 )= 1,00


2 2

 Temperature = Mild

Entropy = ( −26 log 26 )+( −46 log 46 )= 0,92


2 2

 Temperature = Cool

Entropy = ( −04 log 04 )+(−44 log 44 )= 0,00


2 2

 Entropy Humadity
 Temperature = High

Entropy = ( −47 log 47 )+( −37 log 37 )= 0,98


2 2

 Temperature = Normal

Entropy = ( −07 log 07 )+( −77 log 77 )= 0,00


2 2

 Entropy Windy
 Temperature = False

Entropy = ( −28 log 28 )+(−68 log 68 )= 0,81


2 2

 Temperature = True

Entropy = ( −26 log 26 )+( −46 log 46 )= 0,92


2 2
Nod Atribut Jml Kasus Ya Tidak Entropy Gain
e
1 Total 14 10 4 0,86
Outlook
Cloudy 4 4 0 0
Rainy 5 4 1 0,72
Sunny 5 2 3 0,97
Temperature
Cool 4 0 4 0
Hot 4 2 2 1
Mild 6 2 4 0,92
Humadity
High 7 4 3 0,98
Normal 7 7 0 0
Windy
False 8 2 6 0,81
True 6 4 2 0,92

Gain (Total, Outlook)


 Gain (Total, Outlook)

((
= 0,86 −
4
14 )(
0,00 +
5
14
0,72 +)(5
14 ))
0,97 = 0,26

 Gain (Total, Temperature)

((
= 0,86 −
4
14 )(
0,00 +
4
14
1,00 +)(6
14 ))
0,92 = 0,18

 Gain (Total, Humadity)


= 0,86 −(( 7
14 )(
0,98 +
7
14 ))
0,00 = 0,37

 Gain (Total, Windy)

= 0,86 −(( 148 0,81)+( 146 0,92))= 0,006

Nod Atribut Jml Kasus Ya Tidak Entropy Gain


e
1 Total 14 10 4 0,86
Outlook 0,26
Cloudy 4 4 0 0
Rainy 5 4 1 0,72
Sunny 5 2 3 0,97
Temperature 0,18
Cool 4 0 4 0
Hot 4 2 2 1
Mild 6 2 4 0,92
Humadity 0,37
High 7 4 3 0,98
Normal 7 7 0 0
Windy 0,006
Flase 8 2 6 0,81
True 6 4 2 0,92

Gain tertinggi sebagai akar


Dari hasil pada Node 1, dapat diketahui bahwa dengan Gain tertinggi adalah
Humadity. Dengan demikian Humadity dapat menjadi node akar.
Ada dua nilai atribut Humadity yaitu High dan Normal. Dari kedua nilai atribut
tersebut, nilai atribut normal sudah mengklasifikasikan kasus menjadi satu
keputusannya Yes, sehingga tidak perlu dilakukan perhitungan lebih lanjut. Tetapi
untuk nilai atribut High masih perlu dilakukan perhitungan lagi.

Huma
dity

High Normal

???? Yes

 Buat cabang untuk tiap – tiap nilai


Untuk memudahkan, dataset diffilter dengan mengambil data yang memiliki
kelembaban Humadity = High untuk membuat tabel Node 1.1

Outlook Temperature Humadity Windy Play Tennis


Sunny Hot High False No
Sunny Hot High true No
Cloudy Hot High false Yes
Rainy Mild High False Yes
Sunny Mild High False No
Cloudy Mild High True Yes
Rainy Mild High True No

Perhitungan Entropy dan Gain Cabang


Nod Atribut Jml Kasus Ya Tidak Entropy Gain
e
1.1 Humadity 7 3 4 0,99
Outlook 0,69
Cloudy 2 2 0 0
Rainy 2 1 1 1
Sunny 3 0 3 0
Temperature 0,02
Cool 0 0 0 0
Hot 3 1 2 0,92
Mild 4 2 2 1
Windy 0,02
Flase 4 2 2 1
True 3 1 2 0,92

Gain tertinggi sebagai Nnode 1.1


Atribut Cloudy dan Sunny sudah mengklasifikasikan kasus menjadi satu keputusan,
sehingga tidak perlu dilakukan perhitungan lebih lanjut. Tetapi untuk nilai atribut
Rainy masih perlu dilakukan perhitungan lagi.

Humadity

High Normal

Outlook Yes

Cloudy Sunny
Rainy

Yes ???? Yes

 Ulangi proses yang sama untuk setiap cabang sampai semua kasus pada cabang
memiliki kelas yang sama

Outlook Temperature Humadity Windy Play Tennis


Rainy Mild High False Yes
Rainy Mild High true No
Perhitungan Entropy dan Gain Cabang
Nod Atribut Jml Kasus Ya Tidak Entropy Gain
e
1.2 Humadity 2 1 1 1
Outlook
Temperature 0
Cool 0 0 0 0
Hot 0 0 0 0
Mild 2 1 1 1
Windy 1
Flase 1 1 0 0
True 1 0 1 0

Dari tabel, gain tertinggi adalah Windy dan menjadi Node cabang atribut Rainy.
Karena semua kasus sudh masuk dalam kelas. Didapatkan pohon keputusan seperti
dibawah ini:

Humadity

High Normal

Outlook Yes

Cloudy Sunny
Rainy

Yes Windy Yes


False True

Yes No

3. Artificial Neural Network


Artificial Neural Network Artificial (ANN) atau Jaringan Syaraf Tiruan merupakan
sebuah teknik atau pendekatan pengolahan informasi yang terinspirasi oleh cara kerja
sistem saraf biologis, khususnya pada sel otak manusia dalam memproses informasi.
Neural Network terdiri dari sejumlah besar elemen pemrosesan informasi (neuron)
yang saling terhubung dan bekerja bersama-sama untuk menyelesaikan sebuah masalah
tertentu, yang pada umumnya dalah masalah klasifikasi ataupun prediksi.

Jaringan neuron buatan terdiri atas kumpulan grup neuron yang tersusun dalam
lapisan yaitu;
1) Lapisan Input (Input Layer) berfungsi sebagai penghubung jaringan ke dunia luar
(sumber data). Neuron-neuron ini tidak melakukan apapun pada data, hanya
meneruskan data ini kelapisan berikutnya.
2) Lapisan Tersembunyi (Hidden Layer). Suatu jaringan dapat memiliki lebih dari satu
hidden layer atau bahkan tidak bisa punya sama sekali. Jika jaringan memiliki
beberapa lapisan tersembunyi, maka lapisan tersembunyi paling bawah yang
menerima dari input dari input layer.
3) Lapisan Output (Output Layer). Prinsip kerja pada lapisan ini sama dengan prinsip
kerja pada hidden layer dan ini juga digunakan fungsi sigmoid. Tetapi keluaran dari
lapisan ini sudah dianggap dari keluaran proses

Kelebihan Jaringan Saraf Tiruan


 Bisa menyimpulkan pengetahuan walau tidak mempunyai kepastian.
 Bisa melakukan general dan mengekstrak dari pola.
 JST bisa menimbulkan satu pola pengetahuan melewati batas belajar atau self-
organizing.
 Mempunyai fault tolerances atau noise dianggap gangguan.
 Mampu memperhitungkan secara berurutan sehingga proses lebih cepat.
 Mempunyai kelebihan belajar melakukan suatu pekerjaan dasar data yang dikasih.
 JST bisa mendirikan organisasi sendiri dari informasi yang didapatkan saat belajar.

Kemampuan ANN
 Klasifikasi: bisa memilih satu data input ke dalam kategori yang sudah ditentukan.
 Asosiasi: bisa menggambarkan satu objek secara menyeluruh dalam bagian objek
yang lain.
 Selfs-organizing: mempunyai kemampuan pengolah data input yang tidak harus
punya targetan.
 Optimasi: bisa menemukan satu jawaban yang sangat terbaik sehingga bisa mampu
mengecilkan biaya.

Kekurangan Jaringan Saraf Tiruan


 Kurang bisa melakukan penghitungan numerik dengan tinggi.
 Kurang bisa melakukan penghitungan algoritma aritmatiks, operasi logika dan
simbol
 Lama memproses latihan yang bisa menjadi waktu yang paling lama untuk data yang
sangat besar.
 Sangat tidak direkomendasikan jika menggunakan untuk operasi number dengan
angka yang tinggi.
 Sangat tidak merekomendasikan untuk gunakan operasi algoritma aritmatiks, operasi
logika, dan simbol.

4. Support Vektor Machine


Support Vector Machine (SVM) merupakan salah satu metode dalam supervised
learning yang biasanya digunakan untuk klasifikasi (seperti Support Vector
Classification) dan regresi (Support Vector Regression). Dalam pemodelan klasifikasi,
SVM memiliki konsep yang lebih matang dan lebih jelas secara matematis dibandingkan
dengan teknik-teknik klasifikasi lainnya. SVM juga dapat mengatasi masalah klasifikasi
dan regresi dengan linear maupun non linear.

Proses pembelajaran dalam problem klasifikasi diterjemahkan sebagai upaya


menemukan garis (hyperplane) yang memisahkan antara kedua kelompok tersebut.
Berbagai alternatif garis pemisah (discrimination boundaries) ditunjukkan pada Gambar
a.
Hyperplane pemisah terbaik antara kedua class dapat ditemukan dengan mengukur
margin hyperplane tersebut dan mencari titik maksimalnya. Margin adalah jarak antara
hyperplane tersebut dengan data terdekat dari masing-masing class. Subset data training
set yang paling dekat ini disebut sebagai support vector. Garis solid pada Gambar b
menunjukkan hyperplane yang terbaik, yaitu yang terletak tepat pada tengah-tengah
kedua class.
5. Nearest Neighbor Rule
Algoritma KNN merupakan algoritma klasifikasi yang bekerja dengan mengambil
sejumlah K data terdekat (tetangganya) sebagai acuan untuk menentukan kelas dari data
baru. Algoritma ini mengklasifikasikan data berdasarkan similarity atau kemiripan atau
kedekatannya terhadap data lainnya. Dalam K-Nearest Neighbor, data point yang berada
berdekatan disebut “neighbor” atau “tetangga”.

Secara umum, cara kerja algoritma KNN adalah sebagai berikut.


1. Tentukan jumlah tetangga (K) yang akan digunakan untuk pertimbangan penentuan
kelas.
2. Hitung jarak dari data baru ke masing-masing data point di dataset.
3. Ambil sejumlah K data dengan jarak terdekat, kemudian tentukan kelas dari data
baru tersebut.

Dari gambar di atas, ada sejumlah data point yang terbagi menjadi dua kelas yaitu A
(biru) dan B (kuning). Misalnya ada data baru (hitam) yang akan kita prediksi kelasnya
menggunakan algoritma KNN. Dari contoh di atas, nilai K yang digunakan adalah 3.
Setelah dihitung jarak antara titik hitam ke masing-masing data point lainnya, didapatkan
3 titik terdekat yang terdiri dari 2 titik kuning dan satu titik biru seperti yang
diilustrasikan di dalam kotak merah, maka kelas untuk data baru (titik hitam) adalah B
(kuning).
Untuk menghitung jarak antara dua titik pada algoritma KNN digunakan metode
Euclidean Distance yang dapat digunakan pada 1-dimensional space, 2-dimensional
space, atau multi-dimensional space. 1-dimensional space berarti perhitungan jarak
hanya menggunakan satu variabel bebas (independent variable), 2-dimensional-space
berarti ada dua variabel bebas, dan multi-dimensional space berarti ada lebih dari dua
variabel.
Secara umum, formula Euclidean distance pada 1-dimensional space adalah sebagai
berikut.

Formula di atas dapat digunakan jika jumlah independent variable hanya ada satu
variabel. Jika ada lebih dari satu, kita dapat menjumlahkannya seperti di bawah ini.

Agar dapat lebih memahami cara kerja algoritma KNN menggunakan Euclidean
distance, mari kita coba terapkan pada contoh kasus.
Contoh kasus
Misalnya kita memiliki data customer seperti di bawah ini.

Dari tabel di atas, ada 6 data yang sudah berlabel dan 1 satu data baru yang harus
kita tentukan kelasnya dengan detail informasi sebagai berikut:
 Ada 2 kelas yaitu A dan B
 Age dan Income adalah independent variables atau variabel yang nilainya tidak
dipengaruhi oleh variabel lain dan akan digunakan untuk menghitung jarak
 Class merupakan dependent variable, variabel yang nilainya dipengaruhi oleh
variabel lain (Age dan Income)
 Menentukan nilai K
Penentuan nilai K ini tidak ada rumus pastinya. Namun satu tips yang dapat
dipertimbangkan, yakni jika kelas berjumlah genap maka sebaiknya nilai K-nya
ganjil, sebaliknya jika kelas berjumlah ganjil maka sebaiknya nilai K-nya genap. jadi
kita akan langsung tentukan nilai K yang digunakan yaitu K=3.

 Hitung jarak antara data baru dan masing-masing data lainnya


Kita akan menghitung jarak menggunakan metode Euclidean distance di atas.
Ada 6 data yang akan kita hitung.

 Ambil tiga data dengan jarak terdekat


Dari perhitungan Euclidean distance di atas, jika kita rangkum dari jarak
terdekat, hasilnya seperti di bawah ini.
Dari hasil di atas, dapat ditarik kesimpulan bahwa data baru tersebut masuk ke
dalam kelas B karena dari tiga tetangga terdekat, ada dua yang masuk kelas B,
sementara hanya satu yang masuk kelas A.

6. Klasifikasi Berbasis Fuzzy Logic


Profesor Lotfi A. Zadeh adalah guru besar pada University of California yang
merupakan pencetus sekaligus yang memasarkan ide tentang cara mekanisme
pengolahan atau manajemen ketidakpastian yang kemudian dikenal dengan logika fuzzy.
Dalam penyajiannya vaiabel-variabel yang akan digunakan harus cukup menggambarkan
ke-fuzzy-an tetapi di lain pihak persamaan-persamaan yang dihasilkan dari variable-
variabel itu haruslah cukup sederhana sehingga komputasinya menjadi cukup mudah.
Karena itu Profesor Lotfi A Zadeh kemudian memperoleh ide untuk menyajikannya
dengan menentukan “derajat keanggotaan” (membership function) dari masing-masing
variabelnya.
Sebelum munculnya teori logika fuzzy (Fuzzy Logic), dikenal sebuah logika tegas
(Crisp Logic) yang memiliki nilai benar atau salah secara tegas. Sebaliknya Logika
Fuzzy merupakan sebuah logika yang memiliki nilai kekaburan atau kesamaran
(fuzzyness) antara benar dan salah. Dalam teori logika fuzzy sebuah nilai bisa bernilai
benar dan salah secara bersamaan namun berapa besar kebenaran dan kesalahan suatu
nilai tergantung kepada bobot keanggotaan yang dimilikinya. Perbedaan antara kedua
jenis logika tersebut adalah : logika tegas memiliki nilai tidak = 0.0 dan ya = 1.0,
sedangakan logika fuzzy memiliki nilai antara 0.0 hingga 1.0. Secara grafik
perbedaan antara logika tegas dan logika fuzzy ditunjukkan oleh gambar dibawah ini
:

Pada gambar diatas, gambar (a) merupakan contoh logika tegas (Crisp Logic),
sedangkan gambar (b) merupakan logika fuzzy. Pada gambar (a) apabila X lebih dari
atau sama dengan 10 baru dikatakan benar yaitu bernilai Y=1, sebaliknya nilai X
yang kurang dari 10 adalah salah yaitu Y=0. Maka angka 9 atau 8 atau 7 dan
seterusnya adalah dikatakan salah. Sedangkan pada gambar (b) nilai X = 9, atau 8 atau 7
atau nilai antara 0 dan 10 adalah dikatakan ada benarnya dan ada juga salahnya.

Kelebihan Logika Fuzzy


Logika fuzzy/ fuzzy logic mempunyai banyak kelebihan, yaitu kemampuan dalam
proses penalaran secara bahasa (linguistic reasoning), sehingga dalam
perancangannya tidak memerlukan persamaan matematik dari objek yang akan
dikendalikan. Kelebihan yang lain :
1. Konsep logika fuzzy sangat sederhana.
2. Konsep penalaran logika fuzzy mudah dimengerti.
3. Logika fuzzy sangat flexibel ;
4. Logika fuzzy memiliki toleransi terhadap data – data yang tidak tepat ;
5. Logika fuzzy mampu memodelkan fungsi – fungsi nonlinear yang sangat kompleks
6. Logika fuzzy dapat membangun dan mengaplikasikan pengalaman – pengalaman
para pakar secara langsung tanpa harus melalui proses pelatihan.
7. Logika fuzzy dapat bekerja sama dengan teknik – teknik kendali secara
konvensional;
8. Logika fuzzy didasarkan pada bahasa alami.

Kelemahan Logika Fuzzy


Meski mempunyai sederet kelebihan, bukan berarti logika fuzzy tidak mempunyai
kelemahan. kelemahan yang sering timbul adalah bagaimana menentukan fuzzy set
membership function-nya, menentukan nilai linguistik-nya, penentuan kemiringan pada
fungsi tertentu dan menentukan aturan fuzzy. Sehingga jika penentuan parameter-
parameter diatas tidak tepat maka performa dari sistem fuzzy yang kita buat menjadi
tidak optimal. Pada sebagian masalah dimana kita sangat ahli dalam memahami tingkah
laku variable dan aturan yang ada, maka pendefinisian dari fungsi keanggotaan dan
aturan fuzzy bisa sangatlah mudah dan cepat. Namun, sebaliknya jika kita tidak bisa
memahami masalah dari tingkah laku variable dan aturannya maka memerlukan usaha
yang keras dan waktu yang lama untuk membuat variable dan aturan fuzzy nya.

Applikasi Logika Fuzzy


Fuzzy logic banyak digunakan di berbagai bidak seperti bidang teknologi, bisnis,
manajemen, pertanian, transportasi maupun medis. Beberapa contoh aplikasi logic:
 Pada bidang industri, fuzzy logic dapat digunakan sebagai kontrol mesin,
memprediksi jumlah produksi dari suatu barang.
 Pada bidang bisnis, dapat digunakan sebagai prediksi kenaikan/ turun dari suatu
instrumentasi saham/ pasar mata uang, memprediski keuntungan penjualan
selanjutnya.
 Pada bidang pertanian, dapat digunakan untuk predisksi cuaca sebelum petani
memulai menanam agar mendapatkan hasil yang maksimal dsb.

Ada beberapa hal yang perlu diketahui dalam memahami sistem fuzzy, yaitu :
a. Variabel fuzzy
Variabel fuzzy merupakan variabel yang hendak dibahas dalam suatu sistem fuzzy.
Contoh : umur, temperatur, permintaan, dsb.
b. Himpunan fuzzy
Himpunan fuzzy merupakan suatu grup yang mewakili suatu kondisi atau keadaan
tertentu dalam suatu variabel fuzzy.

Himpunan fuzzy memiliki atribut, yaitu :


1. Linguistik
Yaitu penamaan suatu grup yang mewakili suatu keadaan atau kondisi tertentu
dengan menggunakan bahasa alami, seperti : MUDA, PAROBAYA, TUA.
2. Numeris
Yaitu suatu nilai (angka) yang menunjukkan ukuran dari suatu variabel seperti :
50, 25, 45, dsb.
3. Semesta Pembicaraan
Semesta pembicaraan adalah keseluruhan nilai yang diperbolehkan untuk
dioperasikan dalam suatu variabel fuzzy. Semesta pembicaraan merupakan
himpunan bilangan real yang senantiasa naik (bertambah) secara monoton dari kiri
ke kanan. Nilai semesta pembicaraan dapat berupa bilangan positif maupun negatif.
Adakalanya nilai semesta pembicaraan ini tidak dibatasi batas atasnya.
Contoh : semesta pembicaraan untuk variabel umur : [0,100].
4. Domain
Domain himpunan fuzzy adalah keseluruhan nilai yang diijinkan dalam semesta
pembicaraan dan boleh dioperasikan dalam suatu himpunan fuzzy.

Contoh :
a. Muda = [0,40] artinya seseorang dikatakan muda dengan umur 0
hingga 40
b. Parobaya = [30,50] artinya seseorang dikatakan parobaya dengan umur 30
hingga
c. Tua = [40,+] artinya seseorang dikatakan tua

dengan umur 40 hingga +

Operasi pada Himpunan Fuzzy


Ada beberapa operasi yang didefenisikan secara khusus untuk mengkombinasikan
dan memodifikasi himpunan fuzzy. Nilai keanggotaan sebagai hasil dari operasi 2
himpunan sering dikenal dengan nama fire strength ∝−𝑝𝑟𝑒𝑑𝑖𝑘𝑎𝑡. Ada 3 operator dasar
yang diciptakan oleh Zadeh, yaitu : AND, OR dan NOT.
1. Operator AND (DAN)
Operator ini berhubungan dengan operasi interseksi pada himpunan ∝ −
𝑝𝑟𝑒𝑑𝑖𝑘𝑎𝑡 sebagai hasil operasi dengan operator AND diperoleh dengan mengambil
nilai keanggotaan terkecil antar elemen pada himpunan-himpunan yang
bersangkutan. μA∩B = min(μA(x), μB(y))
2. Operator OR (ATAU)
Operator ini berhubungan dengan operasi union pada himpunan ∝ − 𝑝𝑟𝑒𝑑𝑖𝑘𝑎𝑡
sebagai hasil operasi dengan operator OR diperoleh dengan mengambil nilai
keanggotaan terbesar antar elemen pada himpunan-himpunan yang bersangkutan.
μAUB = max(μA(x), μB(y))
3. Operator NOT (KOMPLEMEN)
Operator ini berhubungan dengan operasi komplemen pada himpunan ∝ −
𝑝𝑟𝑒𝑑𝑖𝑘𝑎𝑡 sebagai hasil operasi dengan operator NOT diperoleh dengan
mengurangkan nilai keanggotaan elemen pada himpunan yang bersangkutan dari 1.
μA = 1- μA(x)

Fungsi Keanggotaan
Fungsi keanggotaan adalah suatu kurva yang menunjukkan pemetaan titik-titik input
data ke dalam nilai keanggotaannya (sering juga disebut dengan derajat keanggotaan)
yang memiliki interval antara 0 sampai 1. Salah satu cara yang dapat digunakan untuk
mendapatkan nilai keanggotaan adalah dengan melalui pendekatan fungsi. Ada beberapa
fungsi yang bisa digunakan :
a) Pada representasi linear, pemetaan input ke derajat keanggotaannya digambarkan
sebagai suatu garis lurus. Ada 2 keadaan himpunan fuzzy yang linear, yaitu :
 Kenaikan himpunan dimulai pada nilai domain yang memiliki derajat
keanggotaan nol (0) bergerak ke kanan menuju ke nilai domain yang memiliki
derajat keanggotaan lebih tinggi.
derajat keanggotaan 𝜇(𝑥)
Keteragan :
𝑥 = Nilai keanggotaan yang dibahas
𝑎 = Nilai anggota terendah
𝑏 = Nilai anggota tertinggi

 Garis lurus dimulai dari nilai domain dengan derajat keanggotaan tertinggi pada
sisi kiri, kemudian bergerak menurun ke nilai domain yang memiliki derajat
keanggotaan lebih rendah.

derajat keanggotaan 𝜇(𝑥)


Keteragan :
𝑥 = Nilai keanggotaan yang dibahas
𝑎 = Nilai anggota terendah
𝑏 = Nilai anggota tertinggi

 Garis lurus dimulai dari nilai domain dengan derajat keanggotaan tertinggi pada
sisi kiri, kemudian bergerak menurun ke nilai domain yang memiliki derajat
keanggotaan lebih rendah.
derajat keanggotaan 𝜇(𝑥)

b) Representasi Kurva Segitiga


Kurva segitiga pada dasarnya merupakan gabungan antara 2 garis (linear)
derajat keanggotaan 𝜇(𝑥)

c) Representasi Kurva Trapesium


Kurva segitiga pada dasarnya seperti bentuk segitiga, hanya saja ada beberapa titik
yang memiliki nilai keanggotaan 1.
derajat keanggotaan 𝜇(𝑥)

d) Representasi Kurva Bentuk S


Kurva Pertumbuhan dan Penyusutan merupakan kurva-S atau sigmoid yang
berhubungan dengan kenaikan dan penurunan permukaan secara tak linear. Kurva-S
untuk Pertumbuhan akan bergerak dari sisi paling kiri (nilai keanggotaan = 0) ke sisi
paling kanan (nilai keanggotaan = 1). Fungsi keanggotaannya akan tertumpu pada
50% nilai keanggotaannya yang sering disebut dengan titik infleksi (Gambar 2.9).
derajat keanggotaan 𝜇(𝑥)

Pada umumnya ada 3 metode sistem inferensi fuzzy yang digunakan dalam logika
fuzzy, yaitu : Metode Tsukamoto, Mamdani, dan Sugeno.
1. Metode Tsukamoto
Metode Tsukamoto merupakan perluasan dari penalaran monoton. Setiap
konsekuen pada aturan yang berbentuk JIKA-MAKA harus dipresentasikan dengan
suatu himpunan fuzzy dengan fungsi keanggotaan yang monoton. Sebagai hasilnya,
output hasil inferensi dari tiap-tiap aturan diberikan secara tegas (crisp) berdasarkan
α-predikat. Hasil akhirnya diperoleh dengan menggunakan rata-rata terbobot.
2. Metode Mamdani
Untuk metode ini, pada setiap aturan yang berbentuk implikasi (“sebab akibat”)
anteseden yang berbentuk konjungsi (AND) mempunyai nilai keanggotaan
berbentuk minimum (MIN), sedangkan konsekuen gabungannya berbentuk
maksimum (MAX), karena himpunan aturanaturannya bersifat independent (tidak
saling bergantung).
3. Metode Sugeno
Penalaran dengan Metode Sugeno hampir sama dengan penalaran Mamdani,
hanya saja output (konsekuen) sistem tidak berupa himpunan fuzzy, melainkan
berupa konstanta atau persamaan linear. Metode ini diperkenalkan oleh Takagi-
Sugeno Kang pada tahun 1985, sehingga metode ini sering dinamakan dengan
Metode TSK.

7. Ensemble Learning
Metode ensemble adalah algoritma dalam pembelajaran mesin (machine learning)
dimana algoritma ini sebagai pencarian solusi prediksi terbaik dibandingkan dengan
algoritma yang lain karena metode ensemble ini menggunakan beberapa algoritma
pembelajaran untuk pencapaian solusi prediksi yang lebih baik daripada algoritma yang
bisa diperoleh dari salah satu pembelajaran algoritma kosituen saja.

Jenis Metode Ensemble


Beberapa konsep dasar pada metode ini sebelum dibahas lebih lanjut adalah:
Rata-rata: Ini didefinisikan sebagai mengambil rata-rata prediksi dari model dalam kasus
masalah regresi atau saat memprediksi probabilitas untuk masalah klasifikasi.

Sampel Sampel
Sampel2 Average
1 3

44 39 67 50

Vote: Ini didefinisikan sebagai mengambil prediksi dengan suara / rekomendasi


maksimum dari berbagai model prediksi sambil memprediksi hasil dari masalah
klasifikasi.

Sampel
Sampel2 Sampel3 VotePredict
1

1 0 1 1
Weight Rata-rata: Dalam hal ini, bobot yang berbeda diterapkan pada prediksi dari
beberapa model kemudian mengambil rata-rata yang berarti memberikan manfaat tinggi
atau rendah ke keluaran model tertentu.

Sampel
Sampel2 Sampel3 WeightAverage
1

Weight 0.4 0.3 0.3

Predict 44 39 67 48

Klasifikasi
1. Bagging
Bagging merupakan metode yang dapat memperbaiki hasil dari algoritma
klasifikasi machine learning dengan menggabungkan klasifikasi prediksi dari
beberapa model. Hal ini digunakan untuk mengatasi ketidakstabilan pada model
yang kompleks dengan kumpulan data yang relatif kecil. Bagging adalah salah satu
algoritma berbasis ensemble yang paling awal dan paling sederhana, namun efektif.
Bagging paling cocok untuk masalah dengan dataset pelatihan yang relatif kecil.
Bagging mempunyai variasi yang disebut Pasting Small Votes. cara ini dirancang
untuk masalah dengan dataset pelatihan yang besar, mengikuti pendekatan yang
serupa, tetapi membagi dataset besar menjadi segmen yang lebih kecil. Penggolong
individu dilatih dengan segmen ini, yang disebut bites, sebelum menggabungkannya
melalui cara voting mayoritas.
Figure Bagging

Bagging mengadopsi distribusi bootstrap supaya menghasilkan base learner yang


berbeda, untuk memperoleh data subset. sehingga melatih base learners. dan bagging
juga mengadopsi strategi aggregasi output base leaner, yaitu metode voting untuk
kasus klasifikasi dan averaging untuk kasus regresi.

2. Boosting
Boosting merupakan cara untuk menghasilkan beberapa model atau
penggolongan untuk prediksi atau klasifikasi, dan juga menggabungkan prediksi dari
berbagai model ke dalam prediksi tunggal. Boosting adalah pendekatan iteratif untuk
menghasilkan pengklasifikasi yang kuat, yang mampu mencapai kesalahan training
seminimal mungkin dari sekelompok pengklasifikasi yang lemah. yang masing-
masing hampir tidak dapat melakukan lebih baik daripada tebakan acak.
Boosting di rancang untuk masalah kelas biner, menciptakan kumpulan dari tiga
klasifikasi yang lemah pada satu waktu. klasifikasi pertama (atau hipotesis) adalah
memproses subset acak dari data training yang tersedia. klasifikasi kedua adalah
subset yang berbeda dari dataset asli, dimana hasil dari klasifikasi pertama yang
sudah benar di klasifikasi dan setengahnya lagi salah diklasifikasi. klasifikasi ketiga
kemudian dilatih dengan contoh di mana klasifikasi pertama dan klasifikasi kedua
tidak setuju. Ketiga pengklasifikasi ini kemudian digabungkan melalui suara
mayoritas tiga arah.
Figure boosting

3. Staking
Stacking merupakan cara untuk mengkombinasi beberapa model, dengan
konsep meta learner. dipakai setelah bagging dan boosting. tidak seperti bagging dan
boosting, stacking memungkinkan mengkombinasikan model dari tipe yang berbeda.
Ide dasarnya adalah untuk train learner tingkat pertama menggunakan kumpulan
data training asli, dan kemudian menghasilkan kumpulan data baru untuk melatih
learner tingkat kedua, di mana output dari learner tingkat pertama dianggap sebagai
fitur masukan sementara yang asli label masih dianggap sebagai label data training
baru. Pembelajar tingkat pertama sering dihasilkan dengan menerapkan algoritma
learning yang berbeda.
Dalam fase training pada stacking, satu set data baru perlu dihasilkan dari
classifier tingkat pertama. Jika data yang tepat yang digunakan untuk melatih
classifier tingkat pertama juga digunakan untuk menghasilkan kumpulan data baru
untuk melatih classifier tingkat kedua. proses tersebut memiliki risiko yang tinggi
yang akan mengakibatkan overfitting. sehingga disarankan bahwa contoh yang
digunakan untuk menghasilkan kumpulan data baru dikeluarkan dari contoh data
training untuk learner tingkat pertama, dan prosedur crossvalidasi.

Figure Stacking
Kelebihan dan kekurangan
Kelebihan
 Ensembling adalah metode yang terbukti untuk meningkatkan akurasi model dan
bekerja di sebagian besar kasus.
 Ini adalah bahan utama untuk memenangkan hampir semua hackathon
pembelajaran mesin.
 Ensembling membuat model lebih kuat dan stabil sehingga memastikan kinerja
yang layak pada uji kasus di sebagian besar skenario.
 Untuk menangkap hubungan kompleks linier dan sederhana serta non-linear
dalam data. Ini dapat dilakukan dengan menggunakan dua model yang berbeda
dan membentuk ensemble dua.

Kekurangan
 Ensembling mengurangi interpretability model dan membuatnya sangat sulit
untuk menarik wawasan bisnis penting di akhir.
 Memakan waktu dan dengan demikian mungkin bukan ide terbaik untuk aplikasi
real-time.
 Pemilihan model untuk menciptakan ensemble adalah seni yang benar-benar sulit
untuk dikuasai.

8. Deep Learning
Deep learning merupakan subbidang machine learning yang algoritmanya
terinspirasi dari struktur otak manusia. Struktur tersebut dinamakan Artificial Neural
Networks atau disingkat ANN. Pada dasarnya, ia merupakan jaringan saraf yang
memiliki tiga atau lebih lapisan ANN. Ia mampu belajar dan beradaptasi terhadap
sejumlah besar data serta menyelesaikan berbagai permasalahan yang sulit diselesaikan
dengan algoritma machine learning lainnya.
Jenis algoritma
Deep learning terdiri dari beberapa jaringan saraf tiruan yang saling berhubungan.
Berikut ini adalah beberapa algoritmanya:
 Convolutional Neural Network (CNN)
CNN terdiri dari banyak layer untuk memproses dan mengekstrak fitur dari
data. Ia biasanya digunakan untuk memproses gambar dan mendeteksi objek. Saat
ini, CNN banyak digunakan untuk mengidentifikasi citra satelit, citra medis, dan
mendeteksi anomali.
 Recurrent Neural Network (RNN)
Recurrent Neural Networks (RNN) merupakan salah satu bentuk arsitektur
Artificial Neural Networks (ANN) yang dirancang khusus untuk memproses data
yang bersambung/ berurutan (sequential data). RNN biasanya digunakan untuk
menyelesaikan permasalahan data historis atau time series, contohnya data ramalan
cuaca. Selain itu, RNN juga dapat diimplementasikan pada bidang natural language
understanding (pemahaman bahasa alami), misalnya translasi bahasa.
 Long Short Term Memory Network (LTSM)
LSTM merupakan tipe Recurrent Neural Network yang dapat mempelajari data
historis atau time series. Ia merupakan algoritma deep learning yang kompleks dan
dapat mempelajari informasi jangka panjang dengan sangat baik. LSTM sangat
powerful untuk menyelesaikan berbagai permasalahan kompleks seperti speech
recognition, speech to text application, komposisi musik, dan pengembangan di
bidang farmasi.
 Self Organizing Maps (SOM)
Jenis terakhir adalah self organizing maps atau SOM. Algoritma ini mampu
membuat visualisasi data secara mandiri. SOM diciptakan untuk membantu
penggunanya dalam memahami data dan informasi berdimensi tinggi.

Manfaat deep learning


Setelah menyimak penjelasan di atas, mari kita bahas mengenai manfaat deep
learning. Berikut beberapa manfaat penerapannya:0
 Dapat memproses unstructured data seperti teks dan gambar.
 Dapat mengotomatisasi proses ekstraksi fitur tanpa perlu melakukan proses pelabelan
secara manual.
 Memberikan hasil akhir yang berkualitas.
 Dapat mengurangi biaya operasional.
 Dapat melakukan manipulasi data dengan lebih efektif.

Penerapan
Sebelumnya kita sudah menyinggung beberapa contoh penerapan deep learning. Nah,
sekarang mari kita bahas penerapan lainnya. Berikut adalah beberapa penerapannya:
 Pengenalan gambar
Teknologi ini digunakan untuk mengenali dan mendeteksi objek pada gambar
dan video. Contohnya antara lain, fitur untuk menandai seseorang dalam sebuah foto
di media sosial, fitur face unlock pada ponsel pintar, dan aplikasi Google Photo yang
dapat mendeteksi wajah.

 Pengenalan suara
Deep learning juga dapat mengenali suara manusia dan dapat memberikan
respon berupa teks. Selain itu, teknologi ini juga dapat mendeteksi karakteristik suara
yang diterima, contohnya pada aplikasi aplikasi Google Assistant atau Apple Siri.
 Natural language processing
NLP merupakan subbidang Artificial Intelligence (AI) untuk menganalisis,
memodelkan, dan memahami bahasa manusia. Teknik NLP digunakan di setiap
aplikasi cerdas yang melibatkan bahasa alami. Ia merupakan komponen penting
dalam berbagai aplikasi perangkat lunak yang kita gunakan dalam kehidupan sehari-
hari. Contoh penerapan deep learning dalam bidang NLP antara lain, mesin
penerjemah, digital assistant, mesin pencari, layanan customer service, dan chatbot.
 Deteksi anomali
Deteksi anomali merupakan tahapan untuk mengidentifikasi pola yang tidak
beraturan atau tidak sesuai dengan perilaku yang diprediksi. Anomali dapat diartikan
sebagai perilaku atau pola yang tidak wajar dan dapat menjadi tanda adanya kesalahan
dalam sistem. Teknologi ini memiliki berbagai kegunaan, antara lain, untuk
memprediksi kesalahan yang terjadi pada sistem, pengawasan kesehatan, sampai
deteksi penipuan.

Kesimpulan
Jadi, itulah pembahasan kita mengenai deep learning. Bagaimana menarik, kan? Ia
merupakan subbidang machine learning yang algoritmanya terinspirasi dari struktur otak
manusia. Struktur tersebut dinamakan Artificial Neural Networks atau disingkat ANN.
Deep learning terdiri dari beberapa algoritma dan menjadi teknologi penting bagi berbagai
produk atau layanan yang kita gunakan sehari-hari.

Anda mungkin juga menyukai