PENDAHULUAN
Arsitektur Perceptron sama seperti Hebb terdiri dari 1 lapisan input dan 1
lapisan output. Setiap unit pada lapisan input dihubungkan dengan semua unit di
lapisan output dengan suatu bobot keterhubungan. Arsitektur Perceptron dengan 2
unit (ditambah 1 unit bias) di lapisan input dan 1 unit di lapisan output dapat
dilihat pada gambar 1. Unit bias merupakan satu unit masukan di suatu lapisan
yang nilai inputnya selalu 1.
X1
w1
X2 w2
1
b . yi
Dengan demikian nilai bobot yang baru adalah :
wi baru wi lama .x i .yi
b baru b lama .yi
Algoritma Pembelajaran
Langkah 0: Inisialisasi nilai bobot (wi dan b), laju pembelajaran (), dan nilai
ambang ()
wi = 0 (i = 1..n) ; b = 0
Langkah 1: Selama syarat henti iterasi tidak dipenuhi kerjakan langkah 2-6
Langkah 2: Untuk setiap pasangan pelatihan (s,t) kerjakan langkah 3-5
Langkah 3: Tentukan nilai aktivasi untuk unit input.
xi = si
Langkah 4: Hitung respon untuk unit output
y _ in b xi wi
i
1 jika y _ in
y 0 jika y _ in
1 jika y _ in
Langkah 5: Jika masih ada error, update nilai bobot dan bias
if y ≠ t
wi(baru) = wi(lama)+ .t.x
b(baru) = b(lama) + .t
else
wi(baru) = wi(lama)
b(baru) = b(lama)
Langkah 6: Uji kondisi henti, jika tidak ada perubahan bobot pada
langkah 2 (untuk 1 epoch) berhenti, jika tidak lanjutkan.
Algoritma Pengenalan
Langkah 0: Inisialisasi wi , b, , dari proses pembelajaran sebelumnya.
Langkah 1: Tentukan nilai aktivasi unit input.
xi = si
Langkah 2: Hitung respon untuk unit output
y _ in b xi wi
i
1 jika y _ in
y 0 jika y _ in
1 jika y _ in
2
CONTOH
Perceptron untuk pengenalan pola fungsi logika OR 2 input dengan data input dan data output
berbentuk bipolar. Laju pembelajaran yang digunakan = 1, dan nilai treshold = 0.
- Data Pembelajaran
Tabel Kebenaran fungsi logika OR dengan data input dan output bipolar.
X1 X2 t
1 1 1
1 -1 1
-1 1 1
-1 -1 -1
- Arsitektur Jaringan
Dari tabel kebenaran di atas terlihat bahwa ada 2 input dan 1 output, dengan demikian pada
lapisan input ada 2 neuron dan 1 bias serta 1 neuron pada lapisan output.
1
b
X1
w1
Y
X2 w2
- Fungsi Aktivasi
1 jika y _ in 0
y 0 jika y _ in 0
1 jika y _ in 0
- Proses Pembelajaran
3
wi = wi + .t.x1
= 0 + 1.1.1 = 1
w2 = w2 + .t.x1
= 0 + 1.1.1 = 1
b = b + .t
= 0 + 1.1 = 1
Pembelajaran di atas baru untuk 1 pasangan data, pembelajarn berikutnya dilakukan untuk data
selanjutnya yaitu untuk x1 = 1 dan x2 = -1, lalu x1 = -1 dan x2 = 1, dan data input terakhir dalam
epoch pertama adalah x1 = -1 dan x2 = -1. Hasil pembelajaran dalam epoch 1 dapat dilihat pada
tabel .