Anda di halaman 1dari 4

PERCEPTRON

PENDAHULUAN

Perceptron merupakan pengembangan dari Hebb, arsitektur yang


digunakan sama seperti Hebb. Pada proses perubahan bobot pembelajarannya
ditambahkan laju pembelajaran (learning rate)  yang berfungsi untuk
mengontrol perubahan bobot pada setiap iterasi. Besarnya nilai  lebih besar dari
0 dan maksimum bernilai 1.. Belum ada teori yang menjelaskan berapa besar nilai
yang digunakan untuk proses pembelajaran suatu pola. Untuk proses
pengenalannya Perceptron sudah menggunakan algoritma pengenalan, tetapi
selain itu dapat juga digunakan separabilitas linier seperti pada Hebb.

ARSITEKTUR JARINGAN PERCEPTRON

Arsitektur Perceptron sama seperti Hebb terdiri dari 1 lapisan input dan 1
lapisan output. Setiap unit pada lapisan input dihubungkan dengan semua unit di
lapisan output dengan suatu bobot keterhubungan. Arsitektur Perceptron dengan 2
unit (ditambah 1 unit bias) di lapisan input dan 1 unit di lapisan output dapat
dilihat pada gambar 1. Unit bias merupakan satu unit masukan di suatu lapisan
yang nilai inputnya selalu 1.

X1
w1

X2 w2

Gambar 1. Arsitektur Perceptron

PROSES PEMBELAJARAN PERCEPTRON


Seperti yang dijelaskan di atas, pada proses pembelajaran perceptron untuk
perubahan bobotnya dikontrol oleh laju pembelajaran . Besarnya perubahan
bobot yang terjadi pada setiap iterasi adalah :
wi   .xi . yi

1
b   . yi
Dengan demikian nilai bobot yang baru adalah :
wi  baru   wi  lama    .x i .yi
b baru   b lama    .yi

Algoritma Pembelajaran
Langkah 0: Inisialisasi nilai bobot (wi dan b), laju pembelajaran (), dan nilai
ambang ()
wi = 0 (i = 1..n) ; b = 0
Langkah 1: Selama syarat henti iterasi tidak dipenuhi kerjakan langkah 2-6
Langkah 2: Untuk setiap pasangan pelatihan (s,t) kerjakan langkah 3-5
Langkah 3: Tentukan nilai aktivasi untuk unit input.
xi = si
Langkah 4: Hitung respon untuk unit output
y _ in  b   xi wi
i

 1 jika y _ in  

y   0 jika    y _ in  
  1 jika y _ in  

Langkah 5: Jika masih ada error, update nilai bobot dan bias
if y ≠ t
wi(baru) = wi(lama)+ .t.x
b(baru) = b(lama) + .t
else
wi(baru) = wi(lama)
b(baru) = b(lama)
Langkah 6: Uji kondisi henti, jika tidak ada perubahan bobot pada
langkah 2 (untuk 1 epoch) berhenti, jika tidak lanjutkan.

Algoritma Pengenalan
Langkah 0: Inisialisasi wi , b, ,  dari proses pembelajaran sebelumnya.
Langkah 1: Tentukan nilai aktivasi unit input.
xi = si
Langkah 2: Hitung respon untuk unit output
y _ in  b   xi wi
i

 1 jika y _ in  

y   0 jika    y _ in  
  1 jika y _ in  

2
CONTOH

Perceptron untuk pengenalan pola fungsi logika OR 2 input dengan data input dan data output
berbentuk bipolar. Laju pembelajaran yang digunakan  = 1, dan nilai treshold  = 0.

- Data Pembelajaran
Tabel Kebenaran fungsi logika OR dengan data input dan output bipolar.
X1 X2 t
1 1 1
1 -1 1
-1 1 1
-1 -1 -1

- Arsitektur Jaringan
Dari tabel kebenaran di atas terlihat bahwa ada 2 input dan 1 output, dengan demikian pada
lapisan input ada 2 neuron dan 1 bias serta 1 neuron pada lapisan output.

1
b

X1
w1
Y

X2 w2

Gambar 1. Arsitektur OR 2 input

- Fungsi Aktivasi

1 jika y _ in  0

y   0 jika y _ in  0
 1 jika y _ in  0

- Proses Pembelajaran

Langkah 0: Inisialisasi nilai


w1 = 0 ; w2 = 0 ; b=0 ;  =1 ; =0
Langkah 1: Selama syarat henti iterasi tidak dipenuhi kerjakan langkah 2-6
Langkah 2: Untuk setiap pasangan pelatihan (s,t) kerjakan langkah 3-5
Langkah 3: Nilai aktivasi untuk unit input.
x1 = 1 ; x2 = 1
Langkah 4: Respon untuk unit output
yin= b + x1.w1 + x2.w2 = 0 + 1.0+ 1.0 = 0
y=0
Langkah 5: y ≠ t

3
wi = wi + .t.x1
= 0 + 1.1.1 = 1
w2 = w2 + .t.x1
= 0 + 1.1.1 = 1
b = b + .t
= 0 + 1.1 = 1

Pembelajaran di atas baru untuk 1 pasangan data, pembelajarn berikutnya dilakukan untuk data
selanjutnya yaitu untuk x1 = 1 dan x2 = -1, lalu x1 = -1 dan x2 = 1, dan data input terakhir dalam
epoch pertama adalah x1 = -1 dan x2 = -1. Hasil pembelajaran dalam epoch 1 dapat dilihat pada
tabel .

Tabel Hasil pembelajaran OR dalam 1 epoch


x1 x2 1 y-in y t w1 w2 b w1 w2 b
0 0 0
1 1 1 0 0 1 1 1 1 1 1 1
1 -1 1 1 1 1 0 0 0 1 1 1
-1 1 1 1 1 1 0 0 0 1 1 1
-1 -1 1 -1 -1 -1 0 0 0 1 1 1

Anda mungkin juga menyukai