Fungsi
aktivasi
Fungsi Undak Biner Hard
Limit
0, jika x 0
y
1, jika x 0
Fungsi Aktivasi
Fungsi Undak Biner Threshold
0, jika x
y
1, jika x
Fungsi Aktivasi
Fungsi Bipolar Symetric Hard Limit
1, jika x 0
y 0, jika x 0
1, jika x 0
Fungsi Aktivasi
Fungsi Bipolar dengan threshold
1, jika x
y 0, jika x
1, jika x
Fungsi Aktivasi
Fungsi Linear (identitas)
yx
Fungsi Aktivasi
Fungsi Saturating Linear
1; jika x 0,5
y x 0,5; jika 0,5 x 0,5
0; jika x 0,5
Fungsi Aktivasi
Fungsi Symetric Saturating Linear
1; jika x 1
y x; jika 1 x 1
1; jika x 1
Fungsi Aktivasi
Fungsi Sigmoid Biner
1
y f(x)
1 e x
f ' (x) f(x)[1 f(x)]
Fungsi Aktivasi
Fungsi Sigmoid Bipolar
1 ex
y f(x)
1 e x
f ' (x) [1 f(x)][1 f(x)]
2
Paradigma Pembelajaran
pelatihan jaringan syaraf tiruan dibagi menjadi dua yaitu,
pelatihan dengan supervisi (pembimbing) dan pelatihan
tanpa supervisi.
0, jika x
y
1, jika x
Model Neuron McCulloch-Pitts
Buatlah model neuron McCulloch-Pitts untuk mengenali
pola fungsi logika AND sesuai tabel kebenaran berikut :
Model Neuron McCulloch-Pitts
terdapat dua input yaitu x1 dan x2 dan satu output y. Bila
nilai bobot w1 dan w2 dibuat sama dengan 1, (w1 = 1 dan
w2 = 1), maka kita bisa menghitung jumlah seluruh input
yang masuk untuk tiap-tiap data sebagai berikut :
Agar y(net) memenuhi fungsi logika OR, maka nilai ambang pada
fungsi aktivasi dibuat sama dengan 1, sehingga
Model Neuron McCulloch-Pitts
Buatlah model neuron McCulloch-Pitts untuk
mengenali pola fungsi logika XOR sesuai tabel
kebenaran berikut :
Hebb Rule
Hebb Rule
Algoritma pelatihan Hebb :
a) Inisialisasi bobot dan bias:
wi = 0; dengan i =1,2,...,n;
b=0
Pola ke-2
net = 0.1 + 2. (1) + 0.1 + (2).1 + 2. (1) + (2).1 + (2).1 + 0.1 + (2).1
= 12
f (12) = 1 (sama dengan target)
y _ in (net ) b xi wi
i
c) Masukkan kedalam fungsi aktivasi :
1, jika y _ in
y 0, jika y _ in
1, jika y _ in
Perceptron
d) Bandingkan nilai output jaringan y dengan target t
jika y t , lakukan perubahan bobot dan bias dengan cara :
wi(baru) = wi(lama) + *t*xi
b(baru) = b(lama) + *t
jika y = t , tidak ada perubahan bobot dan bias:
wi(baru) = wi(lama)
b(baru) = b(lama)
net y
f
X2
1, jika y _ in 0,2
b
y 0, jika 0,2 y _ in 0,2
1, jika y _ in 0,2
Masukan Target xi w i + Output Perubahan bobot Bobot baru
b w = xi t wbaru = wlama + w
b = t bbaru = blama + b
x1 x2 t net y=f(n) w1 w2 b w1 w2 b
Epoch ke - 1 0 0 0
0 0 1 -1 0 0 0 0 -1 0 0 -1
0 1 1 -1 -1 -1 0 0 -1
1 0 1 -1 -1 -1 0 0 -1
1 1 1 1 -1 -1 1 1 1 1 1 0
net y
f
X2
1, jika y _ in 0,5
b y 0, jika 0,5 y _ in 0,5
1, jika y _ in 0,5
Masukan Target xi w i + Output Perubahan bobot Bobot baru
b w = xi t wbaru = wlama + w
b = t bbaru = blama + b
x1 x2 t net y=f(n) w1 w2 b w1 w2 b
Epoch ke 1 0 0 0
0 0 0,8 -1
0 1 0,8 -1
1 0 0,8 -1
1 1 0,8 1
x1 x2 X3 t
0 1 1 -1
1 0 1 -1
1 1 0 -1
1 1 1 1
Delta Rule
Algoritma delta rule untuk memperbaiki bobot ke-i (untuk setiap pola)
adalah:
w (baru) = w(lama) + (t y)*xi;
dengan:
xi = input jaringan
y = output jaringan.
t = target.
= learning rate
pelatihan akan dihentikan jika nilai error (t y) pada suatu epoch
bernilai nol.
Delta Rule
Masukan Target xi w i Output Error Perubahan Bobot baru
(t-y) bobot wbaru = wlama +
w = (t-y)x w
x1 x2 t net y=f(n) Error w1 w2 w1 w2
Epoch ke 1 0,1 0,3
0 0 0,2 0 0 0 0 0,1 0,3
0 1 0,2 1 0,3 0 1 0 0,2 0,1 0,5
1 0 0,2 1 0,1 0 1 0,2 0 0,3 0,5
1 1 0,2 1 0,8 1 0 0,3 0,5
j = _inj f(z_inj)
vjk = j xi
Algoritma:
1. Inisialisasi semua bobot = 0.
2. Perbaiki bobot dengan persamaan berikut :
Wij(baru) = wij(lama) + xi*tj
Heteroassociative Memory
3. Untuk setiap vektor input, kerjakan:
* Set input dengan nilai sama dengan vektor
input:
* Hitung input jaringan ke unit output:
y _ inj xi * wij
i
Heteroassociative Memory
* Tentukan aktivasi dari setiap unit output:
1; y _ in j 0
y j 0; y _ in j 0 (untuk target bipolar)
1; y _ in j 0
0, jika y _ in 0
yj (untuk target biner)
1, jika y _ in 0
Bidirectional Associative Memory (BAM)
Bidirectional Associative Memory (BAM) adalah model
jaringan syaraf yang memiliki 2 lapisan, yaitu lapisan
input dan lapisan output yang mempunyai hubungan
timbal balik antara keduanya.
Hubungan ini bersifat bidirectional artinya jika bobot
matrik dari sinyal yang dikirim dari lapisan input X ke
lapisan output Y adalah W, maka bobot matrik dari sinyal
yang dikirim dari lapisan output Y ke lapisan input X
adalah WT.
Arsitektur jaringan untuk 3 neuron pada lapisan input dan
2 neuron pada lapisan output seperti terlihat pada Gambar
berikut.
Bidirectional Associative Memory (BAM)
Learning Vector Quantization (LVQ)
Learning Vector Quantization (LVQ) adalah suatu metode
pelatihan pada lapisan kompetitif terawasi yang akan
belajar secara otomatis untuk mengklasifikasikan vektor-
vektor input ke dalam kelas-kelas tertentu.