Anda di halaman 1dari 14

Algoritma

Perc eptron
YANTO, M.M, M.KOM
Algoritma Perc eptron
(1)

 Model jaringan perceptron ditemukan


Rosenblatt tahun 1962 dan Minsky-
Papert tahun 1969.
 Model tersebut merupakan model yang
memiliki aplikasi dan pelatihan yang
paling baik pada era tersebut.
 Arsitektur jaringan Perceptron
menyerupai dengan arsitektur jaringan
Hebb.

Arsitektur Perc eptron


Algoritma Perc eptron
(2)
 Jaringan terdiri dari beberapa unit masukan (ditambah sebuah
bias), memiliki sebuah unit keluaran.
 Hanya saja fungsi aktivasi bukan merupakan fungsi biner (atau
bipolar), tetapi memiliki kemungkinan nilai -1, 0 atau 1.
 Nilai threshold 𝜃 yang ditentukan:

1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 > 𝜃


𝑓(𝑛𝑒𝑡) = ) 0 𝑗𝑖𝑘𝑎 − 𝜃 ≤ 𝑛𝑒𝑡 ≤ 𝜃
−1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 < −𝜃
Algoritma Perc eptron
(3)
 Secara geometris, fungsi aktivasi membentuk 2 garis sekaligus,
masing- masing dengan persamaan:

w1x1 + w2x2 + ... + wnxn + b = 𝜃

dan

w1x1 + w2x2 + ... + wnxn + b = -𝜃


Algoritma Perc eptron
(4)
 Misalkan:
s adalah vektor masukan dan t adalah target keluaran
 adalah laju pemahaman (learning rate) yang ditentukan
𝜃 adalah threshold yang ditentukan
 Algoritma pelatihan perceptron:
1. Inisialisasi semua bobot dan bias (umumnya wi = b = 0).
Tentukan laju pemahaman (). Untuk penyederhanaan, biasanya

diberi nilai =1
Algoritma Perc eptron
(5)
2. Selama ada elemen vektor masukan yang respon unit keluarnya
tidak sama dengan target, lakukan:
a) Set aktivasi unit masukan xi = si (i = 1,...,n)
b) Hitung respon unit keluaran:

net = ∑ 𝑥i 𝑤i + 𝑏

1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 > 𝜃


𝑓(𝑛𝑒𝑡) = ) 0 𝑗𝑖𝑘𝑎 − 𝜃 ≤ 𝑛𝑒𝑡 ≤ 𝜃
−1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 < −𝜃
Algoritma Perc eptron
(6)
c) Perbaiki bobot pola yang mengandung kesalahan (y ≠ t)
menurut persamaan;
wi(baru) = wi(lama) + ∆w (i=1,...,n)

dengan ∆w = txi

b (baru) = b (lama) +

∆b dengan ∆b

= t
Algoritma Perc eptron
(7)
Ada beberapa hal yang perlu diperhatikan dalam algoritma perceptron:
1. Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan yang
sama dengan targetnya (jaringan sudah memahami pola). Iterasi tidak
berhenti setelah semua pola dimasukkan seperti yang terjadi pada model
Hebb.
2. Pada langkah 2(c), perubahan bobot hanya dilakukan pada pola yang
mengandung kesalahan (keluaran jaringan ≠ target). Perubahan
tersebut merupakan hasil kali unit masukan dengan target dan laju
pemahaman. Perubahan bobot hanya akan terjadi kalau unit
masukan ≠ 0.
3. Kecepatan iterasi ditentukan pula oleh laju pemahaman (= dengan 0 ≤ 
≤ 1). semakin besar harga , semakin sedikit iterasi yang diperlukan. Akan
tetapi jika
 terlalu besar, maka akan merusak pola yang sudah benar sehingga
pemahaman menjadi lambat.
Contoh
(1/6)
Buatlah perceptron untuk mengenali fungsi Masukan Target
logika “AND” dengan masukan dan keluaran
bipolar. Untuk inisialisasi, gunakan bobot dan 1 t
x1 x2
bias awal = 0,  = 1 dan threshold = 0.
1 1 1 1
Penyelesaian:
Tabel masukan dan target fungsi logika “AND” 1 -1 1 -1
dengan masukan dan keluaran bipolar
tampak dalam table berikut: -1 1 1 -1

-1 -1 1 -1
Contoh
(2/6)
 Untuk threshold = 0, maka fungsi aktivasi
menjadi:

1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 > 0


𝑦 = 𝑓 𝑛𝑒𝑡 = ) 0 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 = 0
−1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 < 0

 Iterasi untuk seluruh pola yang ada disebut epoch.


 Tabel berikut menunjukkan hasil pada epoch
pertama:
Contoh
(3/6)

Masukan Target Keluaran Perubahan Bobot Bobot Baru

x1 x2
1 t net f(net) ∆w1 ∆w2 ∆b w1 w2 w(bias)
Inisialisasi 0 0 0
1 1 1 1 0 0 1 1 1 1 1 1
1 -1 1 -1 1 1 -1 1 -1 0 2 0
-1 1 1 -1 2 1 1 -1 -1 1 1 -1
-1 -1 1 -1 -3 -1 1 1 -1 2 2 -2

Perceptron epoch
pertama
Contoh
(4/6)

Masukan Target Keluaran Perubahan Bobot Bobot Baru

x1 x2
1 t net f(net) ∆w1 ∆w2 ∆b w1 w2 w(bias)
Bobot yang diperoleh dari epoch pertama 2 2 -2
1 1 1 1 2 1 1 1 1 3 3 -1
1 -1 1 -1 -1 -1 -1 1 -1 2 4 -2
-1 1 1 -1 0 0 1 -1 -1 3 3 -3
-1 -1 1 -1 -9 -9 1 1 -1 4 4 -4

Perc eptron epoc h ke


dua
Contoh
(5/6)

Masukan Target Keluaran Perubahan Bobot Bobot Baru

x1 x2
1 t net f(net) ∆w1 ∆w2 ∆b w1 w2 w(bias)
Bobot yang diperoleh dari epoch ke dua 4 4 -4
1 1 1 1 4 1 1 1 1 5 5 -3
1 -1 1 -1 -3 -1 -1 1 -1 4 6 -4
-1 1 1 -1 -2 -1 1 -1 -1 5 5 -5
-1 -1 1 -1 -15 -1 1 1 -1 6 6 -6

Perc eptron epoc h ke


tiga
Contoh
(6/6)
Kesimpulan:
Pada table, nilai keluaran f(net) sama dengan target (t), maka
jaringan perceptron tersebut sudah mengenali pola sehingga iterasi
dihentikan.

Anda mungkin juga menyukai