Pembelajaran
dengan Supevisi
Hebb Rule
Pada model neuron McCulloch-Pitts akan
mengalami kesulitan bila berhadapan
dengan fungsi – fungsi yang kompleks. Hal
ini terjadi karena dalam menentukan bobot
w dan nilai ambang di lakukan secara
analitik atau menggunakan cara coba –
coba.
Hebb Rule
Dalam Algoritma Hebb diperkenalkan cara
menghitung bobot dan bias secara iteratif
dengan memanfaatkan model pembelajaran
supervisi sehingga bobot w dan bias dapat
dihitung secara otomatis tanpa melakukan
cara coba – coba. Model Hebb merupakan
model jaringan tertua yang menggunakan
pembelajaran supervisi
Arsitektur
X1
W1 Jaringan Hebb
W2 net = f(net)
y
X2 ∑xw+b
W3
X3
b
1
Algoritma Pelatihan Hebb
1. Inisialisasi bobot dan Bias
Wi = 0; dengan i = 1,2,…..n
B=0
2. Untuk setiap pasang input-target (s-t),lakukan :
a. Set aktivasi unit input Xi = Si; (i = 1,2,…..n)
b. Set aktivasi unit output Yj = Tj; (j = 1,2,…..n)
3. Perbaiki bobot menurut persamaan berikut:
Wi(baru) = W1(lama) +Xi * Yj
(i = 1,2,….,n; dan j = 1,2,…m)
4. Perbaiki Bias menurut persamaan berikut :
b(baru) = b(lama) +Y
Contoh :
Buat jaringan Hebb untuk mengenali pola
fungsi logika “OR” jika representasi
masukan dan keluaran adalah sebagai
berikut :
a. Masukan biner keluar biner
b. Masukan biner keluar bipolar
c. Masukan bipolar keluar bipolar
Penyelesaian :
1. Masukan dan target dari fungsi logika “OR”
dengan masukan biner keluaran biner dapat
dinyatakan sbb :
X1 X2 Target
0 0 0
0 1 1
1 0 1
1 1 1
X1
W1 Arsitektur
Jaringan Hebb
W2 net = f(net)
y
X2 ∑xw+b
1
Algoritma Pelatihan Hebb
Inisialisasi bobot dan bias :
W1 = 0
W2 = 0
b=0
Algoritma Pelatihan Hebb
Inisialisasi bobot dan bias : W1 = 0 W2 = 0 b = 0
Data ke-1 : X1 = 0 X2 = 0 y = 0 (target)
Perubahan bobot dan bias untuk data ke-1 :
W1(baru) = W1(lama) + X1 * y
= 0 + 0.0
=0
W2(baru) = W2(lama) + X2 * y
= 0 + 0.0
=0
b(baru) = b(lama) + y
=0+0
=0
Data ke-2 : X1 = 0 X2 = 1 y = 1 (target)
Perubahan bobot dan bias untuk data ke-2 :
W1(baru) = W1(lama) + X1 * y
= 0 + 0.1
=0
W2(baru) = W2(lama) + X2 * y
= 0 + 1.1
=1
b(baru) = b(lama) + y
=0+1
=1
Data ke-3 : X1 = 1 X2 = 0 y = 1 (target)
Perubahan bobot dan bias untuk data ke-3 :
W1(baru) = W1(lama) + X1 * y
= 0 + 1.1
=1
W2(baru) = W2(lama) + X2 * y
= 1 + 0.1
=1
b(baru) = b(lama) + y
=1+1
=2
Data ke-4 : X1 = 1 X2 = 1 y = 1 (target)
Perubahan bobot dan bias untuk data ke-4 :
W1(baru) = W1(lama) + X1 * y
= 1 + 1.1
=2
W2(baru) = W2(lama) + X2 * y
= 1 + 1.1
=2
b(baru) = b(lama) + y
=2+1
=3
Disini diperoleh nilai bobot dan bias sbb:
W1 = 2 W2 = 2 b = 3
Nilai inilah yang dipakai untuk menguji data masukan
X1 X2 net = ∑XiWi+b 0, jika net < 0
f(net) =
1, jika net ≥ 0
0 0 0.2 + 0.2 + 3 = 3 1
0 1 0.2 + 1.2 + 3 = 5 1
1 0 1.2 + 0.2 + 3 = 5 1
1 1 1.2 + 1.2 + 3 = 7 1
0 0 0.2 + 0.2 + 2 = 2 1
0 1 0.2 + 1.2 + 2 = 4 1
1 0 1.2 + 0.2 + 2 = 4 1
1 1 1.2 + 1.2 + 2 = 6 1
0 0 0.2 + 0.2 + 2 = 2 1
0 1 0.2 + 1.2 + 2 = 4 1
1 0 1.2 + 0.2 + 2 = 4 1
1 1 1.2 + 1.2 + 2 = 6 1