Anda di halaman 1dari 39

S1-Statistika

CART SVR
Association Rule K-Nearest Neighbor
Bayes
DATA Preprocessing Data
Clustering

MINING K-Means
K-Medoids

C45
Support Vector Machine

Jaringan Syaraf Tiruan


Untuk Klasifikasi
Oleh: Dwi Ayu Lusia, S.Si., M.Si.
Jaringan Syaraf Tiruan
• Jaringan syaraf tiruan atau neural network adalah sekumpulan unit input /
output yang terhubung di mana setiap koneksi memiliki bobot yang terkait
dengannya.
• Selama fase pembelajaran, jaringan belajar dengan menyesuaikan bobot
agar dapat memprediksi label kelas yang benar dari tupel masukan.
• Pembelajaran jaringan saraf juga disebut sebagai pembelajaran koneksionis
karena koneksi antar unit
• Algoritma jaringan saraf secara inheren paralel; Teknik paralelisasi dapat
digunakan untuk mempercepat proses komputasi.
• Pada multilayer feed-forward neural network, metode learning yang
digunakan ialah backpropagation

S1-Statistika Data Mining @2021 halaman 3


Jaringan Syaraf Tiruan
• JST dapat digunakan untuk kasus klasifikasi dan regresi
• keuntungan jaringan neural :
1. toleransi yang tinggi terhadap data yang noisy serta
2. kemampuan untuk mengklasifikasikan pola yang belum pernah mereka
latih.
3. dapat digunakan ketika memiliki sedikit pengetahuan tentang
hubungan antara atribut dan kelas.
4. sangat cocok untuk input dan output bernilai kontinu, tidak seperti
kebanyakan algoritma pohon keputusan.
5. telah berhasil dalam beragam data dunia nyata, termasuk pengenalan
karakter tulisan tangan, patologi dan kedokteran laboratorium, dan
melatih komputer untuk mengucapkan teks bahasa Inggris.

S1-Statistika Data Mining @2021 halaman 3


Dasar Jaringan Syaraf Tiruan
• Memiliki 4 komponen
1. neuron
𝑥1 𝑦1
𝑧1 2. Lapisan
⋮ ⋮
𝑥𝑗 ⋮ 𝑦𝑙 3. Fungsi aktivasi
⋮ 4. bobot
𝑧𝑝 ⋮
𝑥𝑚 𝑣𝑚𝑝 𝑤𝑝𝑞 𝑦𝑞

S1-Statistika Data Mining @2021 halaman 3


Dasar Jaringan Syaraf Tiruan
• Jaringan syaraf tiruan ditentukan oleh 3 hal:
1. Pola hubungan antar neuron = arsitektur jaringan
2. Metode untuk menentukan bobot penghubung = metode training atau
learning atau algoritma
3. Fungsi aktivasi yang digunakan

S1-Statistika Data Mining @2021 Page 5


Dasar Jaringan Syaraf Tiruan
3. Jaringan recurrent:
1. Banyak Lapisan/ Arsitektur JST terdapat neuron pd lapis
1. Jaringan satu lapis 2. Jaringan lebih dari satu output yg memberikan
(single layer network) lapis (multi layer network) sinyal pd unit input
Contoh 2 layer:
𝑥1 𝑦1 𝑥1 𝑦1
𝑥1 𝑦1
⋮ ⋮ 𝑧1
⋮ 𝑧1 ⋮ ⋮
𝑥𝑗 𝑦𝑙 ⋮
𝑥𝑗 ⋮ 𝑦𝑙
⋮ ⋮ 𝑥𝑗 ⋮ 𝑦𝑙
𝑥𝑚 𝑦𝑞 ⋮ 𝑧𝑝 ⋮
𝑤𝑚𝑞 ⋮ 𝑧𝑝 ⋮
𝑥𝑚 𝑣𝑚𝑝 𝑤𝑝𝑞 𝑦𝑞
NB: Layer input tidak dihitung
𝑥𝑚 𝑣𝑚𝑝 𝑤𝑝𝑞 𝑦𝑞
S1-Statistika Data Mining @2021 Page 6
Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
1. Jaringan satu lapis • Persamaan NN:
𝑞
(single layer network)
𝑦𝑙 𝑥1 , 𝑥2 , … , 𝑥𝑚 = 𝑓 ෍ 𝑤𝑗𝑙 × 𝑥𝑗 + 𝜀
𝑥1 𝑦1 𝑙=1
⋮ ⋮ • 𝑙 = banyaknya unit output
𝑥𝑗 𝑦𝑙 • 𝑗 = banyaknya unit input
⋮ ⋮ • 𝑤𝑗𝑙 = bobot dari neuron input ke-𝑗 menuju neuron
𝑥𝑚 𝑦𝑞 output ke-𝑙
𝑤𝑚𝑞 𝑞
•𝑓 σ𝑙=1 𝑤𝑗𝑙 × 𝑥𝑗 = fungsi aktivasi

S1-Statistika Data Mining @2021 Page 7


Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
Dari lapisan input ke lapisan tersembunyi:
2. Jaringan lebih dari satu 𝑝

lapis (multi layer network) 𝑧𝑖 𝑥1 , 𝑥2 , … , 𝑥𝑚 = 𝑓1 ෍ 𝑣𝑗𝑖 × 𝑥𝑗


𝑖=1
𝑥1 𝑦1 Dari lapisan tersembunyi ke output:
𝑞

⋮ 𝑧1 ⋮ 𝑦𝑙 𝑧1 , 𝑧2 , … , 𝑧𝑝 = 𝑓2 ෍ 𝑤𝑙𝑖 × 𝑧𝑖
𝑙=1
𝑥𝑗 ⋮ 𝑦𝑙 Sehingga persamaan NN menjadi:
𝑞 𝑝

⋮ 𝑦𝑙 𝑥1 , 𝑥2 , … , 𝑥𝑚 = 𝑓2 ෍ 𝑤𝑙𝑖 × 𝑓1 ෍ 𝑣𝑗𝑖 × 𝑥𝑗 +𝜀
𝑧𝑝 ⋮ 𝑙=1 𝑖=1
𝑥𝑚 𝑣𝑚𝑝 𝑤𝑝𝑞 𝑦𝑞 • Multilayer feed-forward networks, given enough hidden units and
enough training samples, can closely approximate any function
(Han dkk, 2012)
S1-Statistika Data Mining @2021 Page 8
Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
3. Jaringan recurrent: terdapat neuron pd lapis
output yg memberikan sinyal pd unit input

S1-Statistika Data Mining @2021 Page 9


Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
Penentuan banyak neuron input
• Banyak neuron input tergantung dengan kasus atau penelitian terdahulu
• Pengkondisian neuron input: (Han dkk, 2012)
Jika skala kontinu, maka normalisasi nilai input untuk setiap atribut yang
diukur dalam tupel pelatihan akan membantu mempercepat fase
pembelajaran. Biasanya, nilai input dinormalisasi agar berada di antara 0,0 dan
1,0.
Jika kategori maka akan dibentuk variabel sebanyak kategori. Misal X1 memiliki
3 kategori (A, B, C) maka akan dibentuk variabel X11 berisi 1 jika 𝑋1𝑖 = A, 0
yang lain; variabel X12 berisi 1 jika 𝑋1𝑖 = B, 0 yang lain; variabel X13 berisi 1
jika 𝑋1𝑖 = C, 0 yang lain
• NB: jika menggunakan normalisasi 0 sampai 1, maka gunakan fungsi aktivasi yang
memiliki range 0 sampai 1

S1-Statistika Data Mining @2021 Page 10


Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
Penentuan banyak hidden layer
• Masters (1993) menyebutkan bahwa tidak ada alasan secara teoritis
mengenai lebih dari dua lapisan tersembunyi. Permasalahan yang
membutuhkan dua lapisan tersembunyi jarang ditemui dalam kehidupan
nyata. Semakin banyak lapisan tersembunyi maka semakin lama proses
pembelajarannyaa. Hal tersebut dikarenakan gradient tidak stabil dan
jumlah minima palsu biasanya meningkat drastis. Sehingga banyaknya
lapisan tersembunyi yang sering digunakan adalah satu lapisan tersembunyi.
• Jumlah hidden layer adalah sewenang-wenang, meskipun dalam praktiknya,
biasanya hanya satu yang digunakan. (Han dkk, 2012)
S1-Statistika Data Mining @2021 Page 11
Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
Penentuan banyak hidden neuron pada setiap lapisan tersembunyi
• Banyak neuron pada lapisan tersembunyi berdasarkan Masters (1993)
mengikuti aturan geometric pyramid.
• Banyaknnya neuron pada satu lapisan tersembunyi dapat dihitung seperti
berikut.
𝑛𝑧 = 𝑛𝑥 𝑛𝑦
Dimana 𝑛𝑧 adalah banyak neuron tersembunyi, 𝑛𝑥 ialah banyak neuron input
dan 𝑛𝑦 adalah banyak neuron output. Sehingga aturan geometric pyramid,
dapat ditulis 𝑛𝑥 > 𝑛𝑧 > 𝑛𝑦 .

S1-Statistika Data Mining @2021 Page 12


Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
Penentuan banyak hidden neuron pada setiap lapisan tersembunyi
• Sedangakan banyak neuron jika lebih dari satu lapisan tersembunyi dapat
dihitung seperti berikut.
𝑘+1 𝑛𝑥
𝑟=
𝑛𝑦
• 𝑛𝑧.𝑚 = 𝑛𝑦 𝑟 𝑘−𝑚+1
• Dengan 𝑛𝑥.𝑚 adalah banyak neuron pada lapisan tersembunyi ke 𝑚 dan 𝑘
adalah banyak lapisan tersembunyi. Sehingga aturan geometric pyramid,
dapat dituliskan 𝑛𝑥 > 𝑛𝑧.1 > 𝑛𝑧.2 > ⋯ > 𝑛𝑧.𝑘 > 𝑛𝑦 .

S1-Statistika Data Mining @2021 Page 13


Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
Penentuan banyak hidden neuron output
• Jika neuron output berupa kontinu, maka JST digunakan untuk kasus prediksi
atau regresi
• Jika neuron output berupa kategori, maka JST digunakan untuk kasus
klasifikasi.
• satu neuron output dapat digunakan untuk mewakili dua kelas (di mana nilai
1 mewakili satu kelas, dan nilai 0 mewakili kelas lainnya).
• Jika ada lebih dari dua kelas, maka satu neuron output per kelas digunakan.
Contoh jika ada 3 kategori, maka neuron output akan sebanyak 3
(Han dkk, 2012)
S1-Statistika Data Mining @2021 Page 14
Dasar Jaringan Syaraf Tiruan
2. metode training atau learning atau algoritma
perceptron,
back progantion atau Feed Forward Neural Network (FFNN),
Radial Basis Function Network (RBFN),
Learning Vector Quantization (LVG),
recurrent network,
self organizing map, dan
bayesian network

S1-Statistika Data Mining @2021 Page 15


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Syarat suatu fungsi bisa menjadi fungsi aktivasi:
1. Nonlinear: akan memperbaiki kemampuan network dalam melakukan
tugasnya
2. Saturate: bila memiliki output dengan nilai minimum dan maksimum.
Sehingga akan menjaga nilai bobot dan bias (b) maka waktu utk training
juga terbatas
3. Kontinuitas dan smoothness: fungsi aktivasi dan turunan-nya terdefinisi
dalam range dari argumennya.

S1-Statistika Data Mining @2021 Page 16


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
Fungsi undak biner (hard limit)
• Jenis-jenis Fungsi Aktivasi
Fungsi bipolar (symmetric hard limit)
Fungsi linear (identitas)
Jenis fungsi Fungsi saturating linear
aktivasi Fungsi symmetric saturating linear
Fungsi sigmoid biner
Fungsi sigmoid bipolar
Fungsi Rectified Linear Unit (ReLU)
S1-Statistika Data Mining @2021 Page 17
Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
1. Fungsi undak biner (hard limit)
• Jaringan dengan lapisan tunggal sering
menggunakan fungsi undak biner (step
function)
• Berfungsi: mengkonversi variabel yg bernilai
kontinu ke suatu output biner (0 atau 1)
0, jika 𝑥 < 0
• Fungsi: 𝑦 = ቊ
1, jika 𝑥 ≥ 0

S1-Statistika Data Mining @2021 Page 18


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
2. Fungsi bipolar (symmetric hard limit)
• Berfungsi: mengkonversi variabel yg
bernilai kontinu ke suatu output biner
(-1 atau 1)
−1, jika 𝑥 < 0
• Fungsi: 𝑦 = ቊ
1 , jika 𝑥 ≥ 0

S1-Statistika Data Mining @2021 Page 19


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
3. Fungsi linear (identitas)
• Berfungsi: memiliki nilai output yg sama
dengan input
• Fungsi: 𝑦 = 𝑥

S1-Statistika Data Mining @2021 Page 20


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
4. Fungsi saturating linear
1, jika 𝑥 ≥ 0.5
• Fungsi: 𝑦 = ൞𝑥 + 0.5, jika − 0.5 < 𝑥 < 0.5
0, jika 𝑥 ≤ −0.5

S1-Statistika Data Mining @2021 Page 21


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
5. Fungsi symmetric saturating linear
1, jika 𝑥 ≥ 1
• Fungsi: 𝑦 = ൞ 𝑥, jika − 1 < 𝑥 < 1
−1 jika 𝑥 ≤ −1

S1-Statistika Data Mining @2021 Page 22


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
6. Fungsi sigmoid biner
• Fungsi ini digunakan utk JST yg dilatih dgn
metode backpropagation
• Fungsi sigmoid biner memiliki nilai pada
range 0 sampai 1
1
• Fungsi: 𝑦 =
1+𝑒 −𝜎𝑥

S1-Statistika Data Mining @2021 Page 23


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
7. Fungsi sigmoid bipolar
• Fungsi sigmoid bipolar memiliki nilai
pada range -1 sampai 1
1−𝑒 −𝑥
• Fungsi: 𝑦 =
1+𝑒 −𝑥

S1-Statistika Data Mining @2021 Page 24


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
• Jenis-jenis Fungsi Aktivasi:
8. Fungsi Rectified Linear Unit (ReLU)
• Merupakan fungsi aktivasi yang paling
banyak digunakan sejak 2015
0, jika 𝑥 < 0
• Fungsi: 𝑦 = ቊ
𝑥, jika 𝑥 ≥ 0

S1-Statistika Data Mining @2021 Page 25


Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
Fungsi aktivasi mana yang digunakan?
• Sigmoid adalah fungsi aktivasi yang paling sering digunakan, tetapi
mengalami kemunduran berikut:
− Karena menggunakan model logistik, perhitungannya memakan waktu
dan kompleks
− Ini menyebabkan gradien menghilang dan tidak ada sinyal yang melewati
neuron di beberapa titik waktu
− Ini lambat dalam konvergensi
− Itu tidak berpusat nol
S1-Statistika Data Mining @2021 Page 26
Dasar Jaringan Syaraf Tiruan
3. Fungsi aktivasi
Fungsi aktivasi mana yang digunakan? (lanjutan)
• Kelemahan ini diatasi dengan ReLU. ReLU itu sederhana dan lebih cepat
untuk diproses. Itu tidak memiliki masalah gradien menghilang dan telah
menunjukkan peningkatan besar dibandingkan dengan fungsi sigmoid dan
tanh.
• ReLU adalah fungsi aktivasi yang paling disukai untuk jaringan saraf dan
masalah Deep Learning.
• ReLU digunakan untuk lapisan tersembunyi, sedangkan lapisan keluaran
dapat menggunakan fungsi softmax untuk masalah logistik dan fungsi linier
dari masalah regresi.
S1-Statistika Data Mining @2021 Page 27
Pengenalan Perceptron
• Perceptron adalah model jaringan saraf paling awal [2]
dan paling sederhana dari jaringan syaraf tiruan [1,2]
• Perceptron didefinisikan sebagai blok bangunan dasar
dari jaringan saraf. [1]
• Perceptron juga disebut sebagai neuron McCulloch-Pitts
atau gerbang ambang batas linier [2]
• Perceptron diusulkan oleh Frank Rosenblatt pada tahun
1958 sebagai entitas dengan lapisan masukan dan
keluaran dan aturan pembelajaran yang didasarkan
pada meminimalkan kesalahan. [1]
• Aturan belajar perceptron adalah aturan belajar yang
lebih kuat daripada aturan Hebb [4]

S1-Statistika Data Mining @2021 Page 28


Pengenalan Perceptron
• Perceptron asli memiliki tiga lapisan neuron (unit sensorik, unit asosiasi, dan unit
respons) membentuk model perkiraan retina [4]
• Rosenblatt menggunakan perceptron satu lapis untuk klasifikasi pola yang dapat
dipisahkan secara linier. [2]
• Dalam pembelajaran mesin, perceptron adalah algoritma untuk pembelajaran
yang diawasi dari pengklasifikasi biner yaitu true/false atau 1/0 atau +1/-1. [1]
• Teorema konvergensi aturan pembelajaran perceptron menyatakan bahwa jika ada
bobot untuk memungkinkan jaring merespons dengan benar ke semua pola
pelatihan, maka prosedur aturan untuk menyesuaikan bobot akan menemukan
nilai sedemikian rupa sehingga jaring merespons dengan benar semua pola
pelatihan [4]
• Selain itu, jaring akan menemukan beban ini dalam langkah latihan yang terbatas.
[4]
S1-Statistika Data Mining @2021 Page 29
Arsitektur Perceptron
𝑥1 𝑥0 𝑤 Perceptron sederhana untuk klasifikasi pola
𝑤1 0
⋮ • 𝑥0 adalah vektor yang bernilai angka 1
𝑥𝑖 𝑤𝑖 𝑦
⋮ • 𝑤0 disebut pembobot konstan
𝑥𝑛 𝑤𝑛 • Fungsi aktivasi yang digunakan biasanya adalah
binary step function dengan menggunakan
𝑥0 ambang batas (𝜃) yang telah ditentukan
𝑥1 𝑤1 𝑤0
⋮ +1, 𝑗𝑖𝑘𝑎 σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 ≥ 𝜃
𝑤𝑖 𝑛
• 𝑦 = 𝑓 σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 =൝
𝑥𝑖 ෍ 𝑥𝑖 𝑤𝑖 𝑦 −1, 𝑗𝑖𝑘𝑎 σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 < 𝜃
𝑤𝑛 𝑖=0


𝑥𝑛
S1-Statistika Data Mining @2021 Page 30
Teorema Konvergensi Pembelajaran Perceptron
Aturan pembelajaran perceptron adalah sebagai berikut
• Diberikan satu set terbatas vektor pelatihan input 𝑃 yaitu 𝒙 𝑝 dan masing-masing
terkait dengan nilai target 𝑦(𝑝), dimana 𝑝 = 1,2, … , 𝑃.
+1, 𝑗𝑖𝑘𝑎 σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 ≥ 𝜃
• Dan nilai prediksi dari target adalah 𝑦ො 𝑝 = ൝
−1, 𝑗𝑖𝑘𝑎 σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 < 𝜃
• Bobot diupdate dengan mengikuti: jika 𝑦 ≠ 𝑦ො maka 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎 +
𝛼𝑦𝑥𝑖 else 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎
Teorema konvergen aturan pembelajaran perceptron adalah:
• Jika ada vektor bobot 𝑤 sedemikian sehingga 𝑦ො 𝑝 = 𝑦 𝑝 untuk semua 𝑝, maka
untuk setiap vektor awal 𝑤, aturan pembelajaran perceptron akan konvergen ke
vektor bobot (tidak harus unik dan tidak harus 𝑤) yang memberikan respons yang
benar untuk semua pola pelatihan, dan itu akan dilakukan dalam jumlah langkah
yang terbatas

S1-Statistika Data Mining @2021 Page 31


Algoritma Perceptron
Step 0. inisialisasi bobot, tentukan nilai learning rate 𝛼 (0 < 𝛼 ≤ 1), dan 𝜃
untuk mempermudah, 𝑤𝑖 = 0, 𝛼 = 1, dan 𝜃 = 0
Step 1. jika kondisi stop adalah FALSE, maka lakukan step 2 sampai step 4
Step 2. hitung nilai neuron output dengan rumus:𝑛
+1, 𝑗𝑖𝑘𝑎 ෍ 𝑥𝑖 𝑤𝑖 > 𝜃
𝑖=0
𝑛

𝑦ො = 0, 𝑗𝑖𝑘𝑎 − 𝜃 ≤ ෍ 𝑥𝑖 𝑤𝑖 ≤ 𝜃
𝑖=0
𝑛

−1, 𝑗𝑖𝑘𝑎 ෍ 𝑥𝑖 𝑤𝑖 < −𝜃


𝑖=0

Step 3. hitung update bobot.


jika 𝑦 ≠ 𝑦ො maka 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥𝑖
else 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎
Step 4. kondisi stop: jika tidak ada perubahan maka BERHENTI, else lakukan step 2

S1-Statistika Data Mining @2021 Page 32


Algoritma Perceptron

• Jaringan syaraf untuk Iterasi 0


melakukan pembelajaran Step 0. inisialisasi bobot, tentukan nilai
terhadap fungsi AND dengan learning rate 𝛼 (0 < 𝛼 ≤ 1), dan 𝜃
input dan target biner,
sebagai berikut: 𝑤0 = 𝑤1 = 𝑤2 = 0, 𝛼 = 1, dan 𝜃 = 0.2
Step 1. jika kondisi stop adalah FALSE, maka
x1 x2 y lakukan step 2 sampai step 4.
1 1 1 Kondisi stop = FALSE, maka lanjut ke step 2
1 0 -1
0 1 -1
0 0 -1
S1-Statistika Data Mining @2021 Page 33
Algoritma Perceptron

• Jaringan syaraf untuk Iterasi 1 :𝑤0 = 𝑤1 = 𝑤2 = 0


melakukan pembelajaran Step 2. hitung nilai neuron output
terhadap fungsi AND Line1: σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 = 0 + 0 + 0 = 0  𝑦ො = 0
dengan input dan target
biner, sebagai berikut: Step 3. hitung update bobot.
karena 𝑦 ≠ 𝑦ො maka 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥𝑖
x0 x1 x2 y 𝑤0 𝑏𝑎𝑟𝑢 = 𝑤0 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥0 = 0 + 1 1 1 = 1
1 1 1 1 𝑤1 𝑏𝑎𝑟𝑢 = 𝑤1 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥1 = 0 + 1 1 1 = 1
1 1 0 -1 𝑤2 𝑏𝑎𝑟𝑢 = 𝑤2 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥2 = 0 + 1 1 1 = 1
1 0 1 -1 Step 4. karena ada perubahan maka kembali ke step 2
1 0 0 -1
S1-Statistika Data Mining @2021 Page 34
Algoritma Perceptron

• Jaringan syaraf untuk Iterasi 1 : 𝑤0 = 𝑤1 = 𝑤2 = 1


melakukan pembelajaran Step 2. hitung nilai neuron output
terhadap fungsi AND Line2: σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 = 1 + 1 + 0 = 2  𝑦ො = 1
dengan input dan target
biner, sebagai berikut: Step 3. hitung update bobot.
karena 𝑦 ≠ 𝑦ො maka 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥𝑖
x0 x1 x2 y 𝑤0 𝑏𝑎𝑟𝑢 = 𝑤0 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥0 = 1 + 1 −1 1 = 0
1 1 1 1 𝑤1 𝑏𝑎𝑟𝑢 = 𝑤1 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥1 = 1 + 1 −1 1 = 0
1 1 0 -1 𝑤2 𝑏𝑎𝑟𝑢 = 𝑤2 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥2 = 1 + 1 −1 0 = 1
1 0 1 -1 Step 4. karena ada perubahan maka kembali ke step 1
1 0 0 -1
S1-Statistika Data Mining @2021 Page 35
Algoritma Perceptron

• Jaringan syaraf untuk Iterasi 1 : 𝑤0 = 0, 𝑤1 = 0, 𝑤2 = 1


melakukan pembelajaran Step 2. hitung nilai neuron output
terhadap fungsi AND Line3: σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 = 0 + 0 + 1 = 1  𝑦ො = 1
dengan input dan target Step 3. hitung update bobot.
biner, sebagai berikut: karena 𝑦 ≠ 𝑦ො maka 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥𝑖
x0 x1 x2 y 𝑤0 𝑏𝑎𝑟𝑢 = 𝑤0 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥0 = 0 + 1 −1 1 =
−1
1 1 1 1 𝑤1 𝑏𝑎𝑟𝑢 = 𝑤1 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥1 = 0 + 1 −1 0 = 0
1 1 0 -1 𝑤2 𝑏𝑎𝑟𝑢 = 𝑤2 𝑙𝑎𝑚𝑎 + 𝛼𝑦𝑥2 = 1 + 1 −1 1 = 0
1 0 1 -1 Step 4. karena ada perubahan maka kembali ke step 1
1 0 0 -1
S1-Statistika Data Mining @2021 Page 36
Algoritma Perceptron

• Jaringan syaraf untuk Iterasi 1 : 𝑤0 = −1, 𝑤1 = 0, 𝑤2 = 0


melakukan pembelajaran Step 2. hitung nilai neuron output
terhadap fungsi AND Line4: σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 = −1 + 0 + 0 = −1  𝑦ො = −1
dengan input dan target
Step 3. hitung update bobot.
biner, sebagai berikut:
karena 𝑦 = 𝑦ො maka 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎
x0 x1 x2 y Bobot baru: 𝑤0 = −1, 𝑤1 = 0, 𝑤2 = 0
1 1 1 1 Karena pada iterasi 0 line 1 sampai line 3, maka
1 1 0 -1 lanjut ke iterasi berikutnya dengan metode yang
sama dan dilakukan untuk semua line. Sampai
1 0 1 -1 bobot tidak berubah pada setiap line
1 0 0 -1
S1-Statistika Data Mining @2021 Page 37
Algoritma Perceptron

• Jaringan syaraf untuk Iterasi 10 : diperoleh 𝑤0 = −4, 𝑤1 = 2, 𝑤2 = 3


melakukan pembelajaran Sehingga 𝑦 akan bernilai positif untuk semua titik yang
memenuhi
terhadap fungsi AND −4 + 2 𝑥1 + 3𝑥2 > 0.2
dengan input dan target
Dengan garis pembatas:
biner, sebagai berikut: −4 + 2 𝑥 + 3𝑥 = 0.2
1 2 dan 𝑦 akan bernilai negatif
3𝑥2 = 0.2 + 4 − 2 𝑥1 untuk semua titik yang
x0 x1 x2 y 2 + 40
3𝑥2 = − 2 𝑥1 memenuhi
1 1 1 1 10 −4 + 2 𝑥1 + 3𝑥2 < −0.2
21
1 1 0 -1 3𝑥2 = − 2 𝑥1 Dengan garis pembatas:
5 19 2
1 0 1 -1 7 2
𝑥2 = − 𝑥1 𝑥2 = − 𝑥1
5 3 15 3
1 0 0 -1
S1-Statistika Data Mining @2021 Page 38

Anda mungkin juga menyukai