Komputasi Neuron
Banyak pekerjaan2 yg masih belum atau tdk
mungkin mempunyai algoritma.
algoritma.
Pekerjaan2 tsb tdk dpt dituliskan sbg deretan
langkah logis & aritmatis walaupun beberapa
pekerjaan tsb dpt digambarkan dg tegas,
tegas,
bahkan contoh pelaksanaannya dpt diberikan.
diberikan.
Contohnya :
Otopilot mobil
Pembaca tulisan tangan
Penerjemahan bhs lisan
dll
pekerjaan2
X1
X2
w1
w2
w3
X3
Fungsi aktivasi
10
Sejarah JST :
JST sederhana pertama kali diperkenalkan oleh
McCulloh dan Pitts tahun 1943
Menyimpulkan bahwa kombinasi beberapa
neuron sederhana menjadi sebuah sistem
neuron akan meningkatkan kemampuan
komputasinya
Bobot dalam jaringan diatur untuk melakukan
fungsi logika sederhana
Fungsi aktivasi yang digunakan adalah fungsi
threshold
11
peneliti2
Aplikasi JST :
Pengenalan pola (pattern recognition) :
Mengenali huruf,
huruf, angka,
angka, suara,
suara, tanda tangan
yang sudah sedikit berubah
Mengenali orang yang sudah beberapa waktu
tidak dijumpai (wajah/bentuk tubuh sedikit
berubah)
berubah)
Jaringan McCullochMcCulloch-Pitts
merupakan jaringan syaraf pertama yang dibuat
berdasarkan syaraf tiruan
menyimpulkan bahwa kombinasi beberapa
neuron sederhana menjadi suatu sistem neuron
dapat meningkatkan kemampuan komputasi
digunakan untuk melakukan fungsi logika
sederhana
banyak prinsipnya yang masih digunakan pada
JST saat kini
15
16
17
18
Jaringan Hebb
Jaringan lapis tunggal dg satu neuron keluaran
Seluruh neuron masukan terhubung langsung
dengan neuron keluaran,
keluaran, ditambah dengan
sebuah bias
D.O Hebb (1949) memperkenalkan cara
menghitung bobot dan bias secara iteratif
Model jaringan Hebb adalah model pertama
yang dapat belajar
19
TarTarget
bias
t
s1
s2
x1
w1
w2
x2
20
Proses belajar :
=0
Masukan biner
Target keluaran biner
24
Hasil eksekusi :
f(net)
f(net) tidak sama dg target yg
diinginkan pd fungsi AND
JST tdk dpt mengerti
mengerti
TarTarget
bias
t
s1
s2
-1
-1
-1
x1
w1
w2
x2
Masukan biner
Target keluaran bipolar
25
=0
26
Proses belajar :
f(net)
f(net) tidak sama dg target yg
diinginkan pd fungsi AND
JST tdk dpt mengerti
mengerti
pola yang dimaksud
Hasil pembelajaran : w1 =0
=0, w2=0
w2=0, dan b=b=-2
27
TarTarget
bias
t
s1
s2
-1
-1
-1
-1
-1
-1
-1
x1
w1
w2
x2
28
Proses belajar :
=0
Masukan bipolar
Target keluaran bipolar
Hasil pembelajaran : w1 =2
=2, w2=2
w2=2, dan b=b=-2
29
30
Hasil eksekusi :
f(net)
f(net) sama dg target yg
diinginkan pd fungsi AND
JST dpt mengerti
mengerti
Pola 1
#
#
#
#
#
#
#
#
Pola 2
31
32
Pembelajaran JST :
34
Hasil eksekusi :
36
Jaringan Perceptron
Menyerupai arsitektur jaringan Hebb
Diperkenalkan oleh Rosenblatt (1962) dan
MinskyMinsky-Papert (1969)
Model dengan aplikasi dan pelatihan yang
terbaik pada masa tersebut
X1
W1
W2
X2
.
Y
.
Wn
Xn
b
1
37
38
Selama ada elemen masukan s yang keluarankeluarannya tidak sama dengan target t, lakukan :
Set aktivasi unit masukan : xi = si (i=1, , n)
Hitung respon unit keluaran net dan y = f(net)
Bila yt, perbaiki bobot & bias menurut pers :
wi(baru)=wi(lama)+delta w (i=1, , n),
dg delta w = txi
b(baru)
b(baru) = b(lama)
b(lama) + t
39
Kelebihan perceptron :
Seluruh pola yang dimasukkan dibandingkan
dengan target yang sesungguhnya
Kasus :
Buat perceptron yg dpt menyatakan fungsi logika
AND
Representasi masukan/keluaran yg digunakan :
Masukan dan keluaran bipolar ((-1 atau 1)
Masukan biner (0 atau 1) dan keluaran
bipolar ((-1 atau 1)
Inisialisasi :
Bobot dan bias awal wi = 0, b = 0
Learning rate = 1 (penyederhanaan
(penyederhanaan))
Threshold
40
42
A. Representasi Bipolar
Masukan dan target fungsi AND :
1, net > 0
0, net = 0
-1, net < 0
43
44
Epoch kedua :
45
46
Epoch pertama
Dipilih = 1, = 0,2
1, net > 0,2
0, -0,2 net 0,2
-1, net < -0,2
47
48
Epoch kedua
Epoch ke 10 (akhir
(akhir))
-2
49
50
JST ADALINE
ADALINE = Adaptive Linear Neuron
Arsitektur menyerupai perceptron
Neuron masukan dihubungkan langsung
dengan sebuah keluaran
Terdapat pengembangan pada modifikasi bobot
Bobot dimodifikasi dengan aturan delta (least
mean square)
51
52
Modifikasi bobot
Bobot dimodifikasi sedemikian hingga error
yang terjadi minimum
Error adalah kuadrat selisih antara target t dan
keluaran jaringan y = f(net) :
Error = e = (t - f(net))2 = (t ( xiwi + b))2
Kecepatan penurunan error :
e/
e/wi = -2(t - ( xiwi + b))xi = -2(t y) xi
Perubahan bobot :
wi = (t y) xi
dg bil pos bernilai kecil ( umumnya = 0,1)
54
55
56
Tabel masukanmasukan-target
Arsitektur JST
Initialisasi :
Representasi masukan dan keluaran bipolar
Bobot sinapsis dan bobot bias awal wi=0, b=0
Batas toleransi kesalahan = 0,05
Learning rate = 0,1
Threshold = 0
Parameter pelatihan :
Learning rate = 0,1
Batas toleransi = 0,05
57
58
59
60
10
61
62
63
64
input layer
hidden layer
output layer
65
66
11
68
Subroutine FEED_FORWARD
for layer = 1 to L do
for node = 1 to Nlayer do
Nlayerlayer-1
end for;
end for;
end;
69
70
Subroutine UPDATE_WEIGHTS
for all wl,j,I do
wl,j,i(k+1) = wl,j,i(k)
(k) gl,i;
end for;
end;
Nl-1
f ( wl+1,j,m ul-1,m);
end if;
end for;
71
m=0
72
12
f ( wl,j,muL-1,m);
m=0
end for;
end for;
end;
73
75
Kamera
CCD
Gelas
teh
lampu
76
PC dg frame
grabber
78
13
planning
desired
response
feedback
controller
output
yp(k)
plant
TDL
plant
TDL
JST
p(k)
p(k+1)
Z-1
output
plant
e
ei(k)
JST
79
80
reference model
r
ec
u
plant
reference model
u
JST
plant
TDL
ec
yp
ec
yp
ym
ym
reference model
ec
controller
controller
identification
model ()
ei
plant
+
-
yp
ei
TDL
81
82
ym
-
ei
r
z-1
JST, Ni
TDL
TDL
plant
+
+
TDL
u
JST, Nc
ec
p
ei
-
yp
TDL
83
14