fungsi
aktivasi yang sering digunakan adalah : Step Function,
Sigmod Function, Sign Function, dan Linear Function.
Layer pada JST
1. Lapisan Masukan (Input Layer)
Lapisan masukan merupakan lapisan yang terdiri dari beberapa neuron yang akan
menerima sinyal dari luar dan kemudian meneruskan ke neuron neuron lain
dalam jaringan.
2. Lapisan Tersembunyi (Hidden Layer)
Lapisan tersembunyi merupakan tiruan dari sel sel saraf konektor pada jaringan
saraf biologis. Lapisan tersembunyi berfungsi meningkatkan kemampuan jaringan
dalam memecahkan masalah. Konsekuensi dari adanya lapisan ini adalah
pelatihan menjadi makin sulit atau lama.
3. Lapisan Keluaran (Output Layer)
Lapisan keluaran berfungsi menyalurkan sinyal sinyal keluaran hasil pemrosesan
jaringan. Lapisan ini juga terdiri dari sejumlah neuron. Lapisan keluaran
merupakan tiruan dari sel sel saraf motor pada jaringan saraf biologis.
Arsitektur JST
Jaringan lapisan tunggal sekumpulan input neuron dihubungkan langsung dengan
sekumpulan output
Jaringan lapisan jamak (multi layer network) selain ada input dan output ada juga unit
lain yaitu lapisan tersembunyi. unit-unit dalam satu lapisan tidak saling berhubungan
Jaringan recurrent ada neuron output yang memberikan sinyal pada unit input
Fungsi aktivasi
Fungsi aktivasi
Fungsi threshold (batas ambang)
1 xa 1 xa
f(x)= f(x)=
0 x<a -1 x<a
1
Fungsi sigmoid : =
1+
x1
W1
W2
x2 Y
1
Cara modifikasi bobot
Supervisi sejumlah pasangan masukan dan target yang dipakai sebagai
data latih untuk mendapat bobot yg diinginkan. Jaringan akan modifikasi
bobot sesuai selisih keluaran dan target jaringan.
cth: jaringan perceptron, ADALINE, backpropagation
Tanpa supervisi perubahan bobot jaringan dilakukan berdasarkan
parameter tertentu & jaringan dimodifikasi menurut ukuran parameter
tsb. Cth: jaringan kompetitif, Hebbian
jaringan kompetitif terdiri dari 2 layer
- layer input : menerima data eksternal
- layer kompetitif : neuron yang saling berkompetisi agar
memperoleh kesempatan untuk merespon sifat dalam data
masukan.neuron yg memenangkan kompetisi memperoleh sinyal
berikut utk diteruskan
Aplikasi menurut jenis JST
Klasifikasi ADALINE, backpropagation, LVQ
Pengenalan pola backpropagation, LVQ, Adaptive resonance
theory
Peramalan ADALINE, MADALINE, backpropagation
Optimasi ADALINE, Hopfield, Boltzman
Neuron McCulloch-Pitts
Fungsi aktivasi biner
Semua garis memperkuat sinyal ke arah suatu neuron memiliki
kekuatan yg sama
Setiap neuron memiliki batas ambang yg sama. Bila total input
ke neuron tersebut melebih threshold, maka neuron akan
meneruskan sinyal
Bisa memodelkan fungsi logika sederhana
Model neuron McCulloch-Pits untuk
fungsi OR
X1 X2 Y
1 1 1
1 0 1
0 1 1
0 0 0
Z1 Z2 NET Y=F(NET)
0 0 0.1+0.1=0 O
1 0 1.1+0.1=1 1
0 1 0.1+1.1=1 1
0 0 0.1+0.1=0 0
Cth: terdapat JST dengan 3input serta 2 utput. X1=3, x2=5 dan
x3=1 ; w11=0.2;w12=0,1;w21=0,1;w22=-0,2;w31=0,5;w32=-0.5
x1
Y1
yin1
n1 F
x2
yin2 Y2
n2 F
Nilai y =xi.wi
Yin1= 3.0,2+5.0,1+1.0,5=1,6
Yin2=3.0,1+5.-0,2+1.-0.5=-1,2
Cth 2 : mengacu pada soal di atas bilang fungsinya ada fungsi step. Maka
nilai y1 dan y2:
Y1= F(1,6)=1 1,6>0
Y2=F(-1,2)=0 -1,2<0
Cth 3 : mengacu pada soal di atas bilang fungsinya ada fungsi Linier,
maka:
Y1=F(1,6)=1,6
Y2=F(-1,2)=-1,2
Cth 3 : mengacu pada soal di atas bilang fungsinya ada fungsi saturating linier:
1 x0,5
y= x+0,5 -0,5x0,5
0 x-0,5
Y1=F(1,6)=1
Y2=F(-1,2)=0
Cth 4: bila fungsi aktivasi sigmoid biner
1
= =
1
Maka : y=F(1,6)=0,832
Y2=F(-1,2)=0,2315
Single input neuron
Layer of S neurons