Percept Ron
Percept Ron
PENDAHULUAN
Perceptron merupakan pengembangan dari Hebb, arsitektur yang digunakan sama seperti Hebb. Pada proses perubahan bobot pembelajarannya ditambahkan laju pembelajaran (learning rate) yang berfungsi untuk mengontrol perubahan bobot pada setiap iterasi. Besarnya nilai lebih besar dari 0 dan maksimum bernilai 1.. Belum ada teori yang menjelaskan berapa besar nilai yang digunakan untuk proses pembelajaran suatu pola. ntuk proses pengenalannya Perceptron sudah menggunakan algoritma pengenalan, tetapi selain itu dapat juga digunakan separabilitas linier seperti pada Hebb.
1 b
X1
w1
Y X2
w2
wi =.xi . yi b =. yi
&engan demikian nilai bobot yang baru adalah $ wi ( baru ) = wi ( lama ) + .' i .y i b( baru ) = b( lama ) + .yi Algori !" P#!b#l"$"r"% (angkah 0$ )nisialisasi nilai bobot (*i dan b), laju pembelajaran (), dan nilai ambang () *i + 0 (i + 1..n) , b + 0 (angkah 1$ "elama syarat henti iterasi tidak dipenuhi kerjakan langkah #-. (angkah #$ ntuk setiap pasangan pelatihan (s,t) kerjakan langkah /-0 (angkah /$ 1entukan nilai akti2asi untuk unit input. 'i + si (angkah 3$ Hitung respon untuk unit output
y 4 in = b + xi wi
i
(angkah 0$ 5ika masih ada error, update nilai bobot dan bias i& ' ( *i(baru) + *i(lama)6 .t.' b(baru) + b(lama) 6 .t #l)# *i(baru) + *i(lama) b(baru) + b(lama) (angkah .$ ji kondisi henti, jika tidak ada perubahan bobot pada langkah # (untuk 1 epoch) berhenti, jika tidak lanjutkan. Algori !" P#%g#%"l"% (angkah 0$ )nisialisasi *i , b, , dari proses pembelajaran sebelumnya. (angkah 1$ 1entukan nilai akti2asi unit input. 'i + si (angkah #$ Hitung respon untuk unit output
y 4 in = b + xi wi
i
CONTOH
Perceptron untuk pengenalan pola fungsi logika 78 # input dengan data input dan data output berbentuk bipolar. (aju pembelajaran yang digunakan + 1, dan nilai treshold + 0. &ata Pembelajaran 1abel 9ebenaran fungsi logika 78 dengan data input dan output bipolar. X1 1 1 -1 -1 X2 1 -1 1 -1 1 1 1 -1
!rsitektur 5aringan &ari tabel kebenaran di atas terlihat bah*a ada # input dan 1 output, dengan demikian pada lapisan input ada # neuron dan 1 bias serta 1 neuron pada lapisan output. 1
X1
w1
Y
X2
w2
+0
yin+ b 6 '1.*1 6 '#.*# + 0 6 1.06 1.0 + 0 y+0 (angkah 0$ ' ( *i + *i 6 .t.'1 + 0 6 1.1.1 + 1 *# + *# 6 .t.'1 + 0 6 1.1.1 + 1 b + b 6 .t + 0 6 1.1 + 1 Pembelajaran di atas baru untuk 1 pasangan data, pembelajarn berikutnya dilakukan untuk data selanjutnya yaitu untuk '1 + 1 dan '# + -1, lalu '1 + -1 dan '# + 1, dan data input terakhir dalam epoch pertama adalah '1 + -1 dan '# + -1. Hasil pembelajaran dalam epoch 1 dapat dilihat pada tabel . 1abel Hasil pembelajaran 78 dalam 1 epoch '1 '# 1 y-in y t *1 1 1 -1 -1 1 -1 1 -1 1 1 1 1 0 1 1 -1 0 1 1 -1 1 1 1 -1 1 0 0 0 *# 1 0 0 0 b 1 0 0 0 *1 0 1 1 1 1 *# 0 1 1 1 1 b 0 1 1 1 1