Anda di halaman 1dari 14

JARINGAN SYARAF TIRUAN

Jaringan syaraf tiruan (JST) dibuat orang


dengan diilhami oleh struktur dan cara kerja otak
dan sel syaraf manusia (neuron)
Otak manusia mempunyai :




JARINGAN SYARAF TIRUAN


Skema dasar neuron digambarkan sbb :

volume 1.500 cm3


1011 neuron
1014 sinapsis.
sinapsis.

Suatu neuron terdiri atas :







Badan sel yg didalamnya ada inti sel (nucleus)


Dendrit
Akson
Sinapsis
1

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Pengolahan sinyal dilakukan pada badan sel,


sel, di
mana sinyal2 dari neuron lain akan dijumlahkan.
dijumlahkan.
Dendrit berfungsi sebagai saluran masukan
sinyal ke badan sel.
sel.
Akson berfungsi sebagai saluran keluaran sinyal
dari badan sel.
sel.
Sinapsis berfungsi sebagai penghubung dengan
neuron2 lainnya.
lainnya.
Satu neuron berhubungan dg setidaknya 10.000
neuron lainnya.
lainnya.







Komputasi Neuron
 Banyak pekerjaan2 yg masih belum atau tdk
mungkin mempunyai algoritma.
algoritma.
 Pekerjaan2 tsb tdk dpt dituliskan sbg deretan
langkah logis & aritmatis walaupun beberapa
pekerjaan tsb dpt digambarkan dg tegas,
tegas,
bahkan contoh pelaksanaannya dpt diberikan.
diberikan.
 Contohnya :





Otopilot mobil
Pembaca tulisan tangan
Penerjemahan bhs lisan
dll

JARINGAN SYARAF TIRUAN




JARINGAN SYARAF TIRUAN

pekerjaan2

Ada 3 ciri dari


tadi,
tadi, yaitu :
Manusia dpt melakukannya

Dpt diberikan contoh pelaksanaan pekerjaan
tsb

Pemetaan benda dari suatu himpunan ke
himpunan lainnya
Pekerjaan2 tsb merupakan komputasi yg
dilakukan neuron. Pola kerja neuron lalu
ditirukan dan hal ini disebut sbg komputasi
neuron.
neuron.

Komputasi neuron adalah disiplin dlm rekayasa


yg berkenaan dg sistem pengolah informasi
adaptif tak terprogram,
terprogram, yaitu JST,
JST, yg
membangun pola pemetaan antar objek dlm
kaitannya dg lingkungan objek yg dipetakan.
dipetakan.
JST membangkitkan sendiri aturan pemetaan
tsb & memperbaiki aturan yg ada dg membanmembandingkannya dg contoh yg tersedia.
tersedia.
Melalui proses trial and error,
error, JST mengajar
dirinya sendiri bgmn melakukan pemetaan yg
dilatihkan.
dilatihkan.
6

JARINGAN SYARAF TIRUAN




JARINGAN SYARAF TIRUAN

Di manapun JST diterapkan,


diterapkan, kemampuan
pengolahan informasi yg sama sekali baru dpt
dikembangkan,
dikembangkan, dg biaya & waktu yg seringkali
sangat menyusut.
menyusut.
Komputasi neuron menyelesaikan masalah
tanpa menyingkap aturan yg dipakai dlm
penyelesaiannya.
penyelesaiannya.

Cara kerja neuron :


 Dendrit menerima sinyal dari neuron2 lain lalu
dikalikan dengan bobot sinapsis masing2
 Badan sel menjumlahkan sinyal lalu hasilnya
dikonversikan oleh fungsi aktivasi tertentu
 Akson meneruskan sinyal hasil pengolahan
badan sel ke neuron2 lainnya lagi

JARINGAN SYARAF TIRUAN


Model neuron

X1
X2

JARINGAN SYARAF TIRUAN

w1
w2

Karakteristik JST ditentukan oleh :


 Arsitektur jaringan (pola hubungan antar
neuron)

w3

X3



Metode pelatihan (metoda menentukan bobot


penghubung)
penghubung)

Y menerima masukan dari ketiga neuron dg


bobot sinapsis masing2 w1, w2, dan w3.
Sinyal ketiga neuron dijumlahkan lalu dimasukdimasukkan ke dlm fungsi aktivasi f menghasilkan nilai
y = f(x1w1+x2w2+x3w3)

Jaringan lapis tunggal,


tunggal, jaringan lapis jamak,
jamak, jaringan
reccurent,
reccurent, dll

Supervisi (diawasi) atau tanpa supervisi

Fungsi aktivasi




Hard limit, sigmoid, dll

10

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Sejarah JST :
 JST sederhana pertama kali diperkenalkan oleh
McCulloh dan Pitts tahun 1943

Menyimpulkan bahwa kombinasi beberapa
neuron sederhana menjadi sebuah sistem
neuron akan meningkatkan kemampuan
komputasinya

Bobot dalam jaringan diatur untuk melakukan
fungsi logika sederhana

Fungsi aktivasi yang digunakan adalah fungsi
threshold
11

Tahun 1958, Rosenblatt memperkenalkan


model jaringan perceptron

Terdapat metoda pelatihan untuk mengopmengoptimalkan hasil iterasi
Widrow dan Hoff (1960) mengembangkan
perceptron dengan memperkenalkan aturan
pelatihan jaringan

Disebut aturan Delta (kuadrat rata2 terkecil)

Mengubah bobot perceptron apabila keluaran
yang dihasilkan tidak sesuai dengan target
yang diinginkan
12

JARINGAN SYARAF TIRUAN




JARINGAN SYARAF TIRUAN

peneliti2

Apa yang dilakukan


terdahulu hanya
menggunakan jaringan lapis tunggal (single
layer)
Rumelhart (1986) mengembangkan perceptron
menjadi Backpropagation

Jaringan diproses menjadi beberapa lapis
Beberapa JST terkenal lainnya : Neocognotion,
Neocognotion,
Adaptive Resonance Theory (ART), Self
Organizing Map (SOM), Hopfield, Bidirectional
Associative memory (BAM), Mesin Boltmann,
Boltmann,
Mesin Cauchy, dll
13

Aplikasi JST :
 Pengenalan pola (pattern recognition) :

Mengenali huruf,
huruf, angka,
angka, suara,
suara, tanda tangan
yang sudah sedikit berubah

Mengenali orang yang sudah beberapa waktu
tidak dijumpai (wajah/bentuk tubuh sedikit
berubah)
berubah)


Pengolahan sinyal (signal processing) :



Menekan noise dalam sinyal
Peramalan (forecasting) :

Meramal kejadian masa datang berdasarkan
pola kejadian yang ada di masa lampau
14

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Jaringan McCullochMcCulloch-Pitts
 merupakan jaringan syaraf pertama yang dibuat
berdasarkan syaraf tiruan
 menyimpulkan bahwa kombinasi beberapa
neuron sederhana menjadi suatu sistem neuron
dapat meningkatkan kemampuan komputasi
 digunakan untuk melakukan fungsi logika
sederhana
 banyak prinsipnya yang masih digunakan pada
JST saat kini

Karakteristik model neuron McCullochMcCulloch-Pitts :


 Fungsi aktivasi neuron dalam biner :

Neuron meneruskan sinyal : aktivasi bernilai 1

Neuron tidak meneruskan sinyal : aktivasi
bernilai 0
 Setiap neuron pada jaringan dihubungkan dg
jalur terarah yang memiliki bobot tertentu :

Jika bobot jalur bernilai positif, jalur diperkuat

Jika bobot jalur bernilai negatif,
negatif, jalur
diperlemah

15

16

JARINGAN SYARAF TIRUAN




JARINGAN SYARAF TIRUAN

Seluruh jalur bernilai positif yang terhubung ke


neuron tertentu, memiliki bobot sama

Bobot koneksi yang berbeda dapat terhubung
ke neuron lain

Setiap neuron memiliki nilai threshold tetap
Jika net input ke neuron lebih besar dari
threshold, neuron akan meneruskan sinyal (fire)

Threshold di-set sedemikian sehingga setiap
masukan yang memperlemah akan
mencegah neuron meneruskan sinyal

17

18

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Jaringan Hebb
 Jaringan lapis tunggal dg satu neuron keluaran

Seluruh neuron masukan terhubung langsung
dengan neuron keluaran,
keluaran, ditambah dengan
sebuah bias
 D.O Hebb (1949) memperkenalkan cara
menghitung bobot dan bias secara iteratif
 Model jaringan Hebb adalah model pertama
yang dapat belajar

Konsep Dasar Jaringan Hebb


 Apabila dua buah neuron yang dihubungkan
dengan sinapsis memiliki bobot w sama
(keduanya positif atau keduanya negatif),
negatif), maka
kekuatan sinapsisnya meningkat
 Sebaliknya,
Sebaliknya, apabila kedua neuron aktif secara
tidak sinkron (salah satu bobot w bernilai positif
dan yang lain bernilai negatif),
negatif), maka kekuatan
sinapsisnya akan melemah

19

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Algoritma Pelatihan Hebb


 Inisialisasi semua bobot : b = wi = 0 (i=1, , n)
 Untuk semua vektor masukan s dan target t :

Set aktivasi unit masukan : xi = si (i=1, , n)

Set aktivasi unit keluaran : y = t

Perbaiki bobot menurut persamaan :
wi(baru)
(baru)=wi(lama)+delta wi (i=1, , n),
dimana delta wi= xiy

Perbaiki bias menurut persamaan :
b(baru)
b(baru) = b(lama)
b(lama) + y
21

JARINGAN SYARAF TIRUAN




TarTarget
bias
t

s1

s2

x1

w1
w2

x2

Kasus 1 Fungsi Logika AND


 Buat jaringan Hebb yang dapat menyatakan
fungsi logika AND
 Representasi masukan/keluaran yg digunakan :

Masukan dan keluaran biner (0 atau 1)

Masukan biner dan keluaran bipolar

Masukan dan keluaran bipolar ((-1 atau 1)
 Contoh ini memperlihatkan masalah yang
seringkali timbul untuk fungsi aktivasi threshold

Kadangkala jaringan dapat menentukan pola
secara benar jika menggunakan representasi
bipolar saja
22

JARINGAN SYARAF TIRUAN

Tabel Masukan dan Target fungsi AND


Input

20

Proses belajar :
=0

Perhitungan bobot dan bias :


wi(baru)=wi(lama)+ dwi, dg dwi=xiy (i=1, , n)
b(baru)
b(baru) = b(lama)
b(lama) + db,
db, dg db=y

Masukan biner
Target keluaran biner

Hasil pembelajaran : w1 =1, w2=1, dan b=1


23

24

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Hasil eksekusi :

Tabel Masukan dan Target fungsi AND


Input

f(net)
f(net) tidak sama dg target yg
diinginkan pd fungsi AND
JST tdk dpt mengerti
mengerti


pola yang dimaksud

TarTarget
bias
t

s1

s2

-1

-1

-1

x1

w1
w2

x2

Masukan biner
Target keluaran bipolar

25

JARINGAN SYARAF TIRUAN

=0

26

JARINGAN SYARAF TIRUAN


Hasil eksekusi :

Proses belajar :

f(net)
f(net) tidak sama dg target yg
diinginkan pd fungsi AND
JST tdk dpt mengerti
mengerti
pola yang dimaksud

Perhitungan bobot dan bias :


wi(baru)=wi(lama)+ dwi, dg dwi=xiy (i=1, , n)
b(baru)
b(baru) = b(lama)
b(lama) + db,
db, dg db=y

Hasil pembelajaran : w1 =0
=0, w2=0
w2=0, dan b=b=-2
27

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Tabel Masukan dan Target fungsi AND


Input




TarTarget
bias
t

s1

s2

-1

-1

-1

-1

-1

-1

-1

x1

w1
w2

x2

28

Proses belajar :
=0

Perhitungan bobot dan bias :


wi(baru)=wi(lama)+ dwi, dg dwi=xiy (i=1, , n)
b(baru)
b(baru) = b(lama)
b(lama) + db,
db, dg db=y

Masukan bipolar
Target keluaran bipolar

Hasil pembelajaran : w1 =2
=2, w2=2
w2=2, dan b=b=-2
29

30

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Hasil eksekusi :

Kasus 2 : Pengenalan Pola


Diberikan 2 pola menyerupai huruf X dan O
#

f(net)
f(net) sama dg target yg
diinginkan pd fungsi AND
JST dpt mengerti
mengerti

Pola 1

pola yang dimaksud

#
#
#

#
#
#
#
#

Pola 2

31

JARINGAN SYARAF TIRUAN

32

JARINGAN SYARAF TIRUAN

Setiap karakter pola dianggap sbg unit masukan :


karakter # diberi nilai 1, karakter . diberi nilai -1

Representasi masukan dan target :

Pola terdiri dari 5 baris dan 5 kolom : Jaringan Hebb


terdiri dari 25 unit masukan (x1 s/d x25) dan bias = 1.

Target : Keluaran jaringan bernilai 1 jika diberi masukan


pola 1 (X) dan bernilai -1 jika diberi masukan pola 2 (0).
33

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Pembelajaran JST :

wi(baru)=wi(lama)+ dwi, dg dwi=xiy (i=1, , n)


b(baru)
b(baru) = b(lama)
b(lama) + db,
db, dg db=y

34

Hasil eksekusi :

Keluaran JST = target, JST dpt mengenali pola


35

36

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN


Arsitektur Perceptron
Jaringan satu lapisan
beberapa neuron masukan
dihubungkan langsung dg
sebuah neuron keluaran
ditambah satu bias
Fungsi aktivasi memiliki nilai
1, net >
f(net)
f(net) = 0, - net
-1, net < -

Jaringan Perceptron
Menyerupai arsitektur jaringan Hebb
Diperkenalkan oleh Rosenblatt (1962) dan
MinskyMinsky-Papert (1969)
Model dengan aplikasi dan pelatihan yang
terbaik pada masa tersebut





X1

W1
W2

X2
.

Y
.

Wn

Xn
b
1

37

38

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Algoritma pelatihan perceptron :


 Inisialisasi semua bobot,
bobot, bias dan learning rate


wi = 0 (i=1, , n), b=0, learning rate = antara 0 s/d 1

Selama ada elemen masukan s yang keluarankeluarannya tidak sama dengan target t, lakukan :

Set aktivasi unit masukan : xi = si (i=1, , n)

Hitung respon unit keluaran net dan y = f(net)

Bila yt, perbaiki bobot & bias menurut pers :
wi(baru)=wi(lama)+delta w (i=1, , n),
dg delta w = txi
b(baru)
b(baru) = b(lama)
b(lama) + t

Iterasi dilakukan terus menerus hingga seluruh


keluaran sama dg target yang ditentukan





Perubahan bobot hanya dilakukan bila keluaran


jaringan tdk sama dg target : y = f(net)
f(net) t
Kecepatan iterasi ditentukan learning rate (
()





Jaringan sudah memahami pola


Pada Hebb,
Hebb, iterasi berhenti setelah semua pola
dimasukkan

Umumnya : 0 < < 1, besar maka jml iterasi sedikit


Bila terlalu besar dpt merusak pola yg sudah benar

Satu siklus pelatihan yg melibatkan semua pola


disebut epoch : Pada Hebb,
Hebb, pelatihan hanya 1 epoch.

39

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Kelebihan perceptron :
 Seluruh pola yang dimasukkan dibandingkan
dengan target yang sesungguhnya



Kasus :
Buat perceptron yg dpt menyatakan fungsi logika
AND
 Representasi masukan/keluaran yg digunakan :

Masukan dan keluaran bipolar ((-1 atau 1)

Masukan biner (0 atau 1) dan keluaran
bipolar ((-1 atau 1)
 Inisialisasi :

Bobot dan bias awal wi = 0, b = 0

Learning rate = 1 (penyederhanaan
(penyederhanaan))

Threshold

Jika terdapat perbedaan,


perbedaan, bobot akan dimodifikasi
Bobot tidak selalu dimodifikasi pada setiap iterasi

Modifikasi bobot menggunakan laju pelatihan


yang nilainya dapat diatur :

40

Modifikasi bobot tidak hanya ditentukan oleh


perkalian antara target dan masukan saja

Pelatihan dilakukan secara terus menerus


hingga jaringan dapat mengerti pola yang
ditentukan
41

42

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

A. Representasi Bipolar
Masukan dan target fungsi AND :

Fungsi aktivasi utk = 0:


0:
y = f(net)
f(net) =

Epoch pertama : terdiri dari 4 iterasi

1, net > 0
0, net = 0
-1, net < 0
43

JARINGAN SYARAF TIRUAN

44

JARINGAN SYARAF TIRUAN

Epoch kedua :

Arsitektur jaringan perceptron yg diperoleh :


fungsi aktivasi utk = 0 :
1, net > 0
y = f(net)
0, net = 0
f(net) =
-1, net < 0

45

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Representasi biner bipolar


Masukan dan target fungsi AND

Fungsi aktivasi utk = 0,2


y = f(net)
f(net) =

46

Epoch pertama

Dipilih = 1, = 0,2
1, net > 0,2
0, -0,2 net 0,2
-1, net < -0,2
47

48

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Epoch kedua

Epoch ke 10 (akhir
(akhir))

-2

49

50

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Jaringan perceptron yag diperoleh :


Fungsi aktivasi utk = 0,2 :
1, net > 0,2
y = f(net)
f(net) = 0, -0,2
0,2net
net0,2
-1, net < -0,2

JST ADALINE
 ADALINE = Adaptive Linear Neuron
 Arsitektur menyerupai perceptron

Neuron masukan dihubungkan langsung
dengan sebuah keluaran
 Terdapat pengembangan pada modifikasi bobot

Bobot dimodifikasi dengan aturan delta (least
mean square)

51

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Arsitektur JST Adaline


 Jaringan 1 lapisan


52

Modifikasi bobot
 Bobot dimodifikasi sedemikian hingga error
yang terjadi minimum
 Error adalah kuadrat selisih antara target t dan
keluaran jaringan y = f(net) :
Error = e = (t - f(net))2 = (t ( xiwi + b))2
 Kecepatan penurunan error :
e/
e/wi = -2(t - ( xiwi + b))xi = -2(t y) xi
 Perubahan bobot :
wi = (t y) xi
dg bil pos bernilai kecil ( umumnya = 0,1)

Beberapa neuron masukan


dihubungkan langsung dg
sebuah neuron keluaran
Ditambah 1 bias

Fungsi aktivasi selama


tahap pelatihan memakai
fungsi identitas :
net = xiwi + b
y = f(net) = net = xiwi + b
53

54

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Algoritma pelatihan Adaline


 Inisialisasi bobot,
bobot, bias, learning rate dan
toleransi kesalahan
 Selama max wi > batas toleransi,
toleransi, lakukan

Set aktivasi unit masukan : xi = si (i=1, , n)

Hitung respon unit keluaran :
net dan y = f(net) = net

Bila y t, perbaiki bobot dan bias dg pers :
wi(baru)
(baru) = wi(lama)
wi(lama) + wi
dg wi = (t y)xi
b(baru)
b(baru) = b(lama)
b(lama) + (t y)

Tahap Pengenalan Pola


 Setelah proses pelatihan selesai,
selesai, ADALINE
dapat digunakan untuk pengenalan pola
 Fungsi aktivasi yg digunakan umumnya bipolar
 Proses pengenalan pola memakai ADALINE :



Inisialisasi bobot dan bias sesuai hasil pelatihan


Untuk setiap masukan x, lakukan :
Set aktivasi unit masukan : x i = si (i=1, , n)
Hitung respon unit keluaran : net = xiwi + b
Kenakan fungsi aktivasi :
1, net 0
y = f(net)
f(net) =
-1, net<0

55

JARINGAN SYARAF TIRUAN

56

JARINGAN SYARAF TIRUAN

Kasus : ADALINE utk mengenali pola fungsi AND

Tabel masukanmasukan-target

Arsitektur JST

Initialisasi :
 Representasi masukan dan keluaran bipolar
 Bobot sinapsis dan bobot bias awal wi=0, b=0
 Batas toleransi kesalahan = 0,05
 Learning rate = 0,1
 Threshold = 0
Parameter pelatihan :
Learning rate = 0,1
Batas toleransi = 0,05
57

JARINGAN SYARAF TIRUAN

58

JARINGAN SYARAF TIRUAN

Tahap pelatihan : epoch pertama

Tahap pelatiahan : epoch kedua

59

60

10

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Tahap pengenalan pola :


Arsitektur JST
Tabel masukanmasukan-target

MADALINE ( many ADALINE)


Gabungan beberapa
ADALINE membentuk
JST dg 1 lapisan
tersembunyi

61

62

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN


Keterbatasan diatasi dg
menambahkan lapisan
tersembunyi (hidden
layer) utk dpt
menyelesaikan
masalah yg lebih rumit.
rumit.
Akibatnya waktu
pelatihan lebih lama.

JST satu lapis mempunyai


keterbatasan dalam
pengenalan pola

63

64

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Arsitektur JST Back Propagation

Fase pelatihan JST Back Propagation :


 Fase 1 : Fase Maju
Pola masukkan dihitung mulai dari input layer sampai
ouput layer. Keluaran jaringan dibandingkan dengan
target yang harus dicapai


Fase 2 : Fase Mundur


Error yang terjadi dipropagasi mundur yang dimulai
dari output layer sampai ke input layer

Fase 3 : Fase Perubahan Bobot


Memodifikasi bobot untuk menurunkan kesalahan
yang terjadi

input layer

hidden layer

output layer
65

66

11

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Algoritma Pelatihan Back Propagation


Simbol2 yg dipakai :
 ul,j = keluaran simpul ke j pd lapisan ke l
 wl,j,i = bobot yg menghubungkan simpul ke i pd
lapisan ke l-1 ke simpul ke j pd lapisan ke l
 {xp} = sampel pelatihan ke p
 uo,j = komponen ke j vektor masukan
 dj{xp} = keluaran yg diinginkan dari simpul ke j
utk sampel pelatihan ke p {x
{xp}
 Nl = jml simpul pd lapisan ke l
 L = jml lapisan
67
 P = jml pola pelatihan

JARINGAN SYARAF TIRUAN

Utk perjanjian tanda,


tanda, maka :
uo,j = xj = (Lapisan
(Lapisan ke 0 = vektor masukan)
masukan)
u1,0 = 1 (simpul
(simpul ke 0 tiap lapisan = 1)
Keluaran simpul pd lapisan ke l :
Nl-1
ul,j = f ( wl,j,i ul-1,i)
i=0
di mana : f(
f() = fungsi aktivasi

68

JARINGAN SYARAF TIRUAN

Algoritma Back Propagation


Procedure BACK_PROP
pilih bobot awal;
awal;
repeat
pilih pasangan pola pelatihan (x,d)
x,d) dan uo=x;
FEED_FORWARD;
COMPUTE_GRADIENT;
UPDATE_WEIGHTS;
until kriteria penghentian dipenuhi;
dipenuhi;
End;

Subroutine FEED_FORWARD
for layer = 1 to L do
for node = 1 to Nlayer do
Nlayerlayer-1

ulayer,node = f( wlayer,node,i ulayerlayer-1,i)


i=0

end for;
end for;
end;

69

JARINGAN SYARAF TIRUAN

70

JARINGAN SYARAF TIRUAN


Subroutine COMPUTE_GRADIENT;
for layer = 1 to L do
for node = 1 to Nlayer do
if layer = L then
eL,node = uL,node dnode;
else
N

Subroutine UPDATE_WEIGHTS
for all wl,j,I do
wl,j,i(k+1) = wl,j,i(k)
(k) gl,i;
end for;
end;

elayer,node = elayer+1,m wlayer+1,m,node


m=1

Nl-1

f ( wl+1,j,m ul-1,m);
end if;
end for;
71

m=0

72

12

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

for all weghts in layer do


glayer,j,i = elayer,julayerlayer-1,i
NL-1

f ( wl,j,muL-1,m);
m=0

end for;
end for;
end;

73

Initialisasi Bobot Awal


 Pada awal pelatihan,
pelatihan, JST perlu diberi bobot
awal.
awal. Umumnya bobot awal merupakan bil acak
antara -1 dan 1.
 Banyak metode utk memilih bobot awal dg
tujuan mempercepat pelatihan.
pelatihan. Salah satunya
metode NguyenNguyen-Widrow (1986) dg rumus :
W = (2MW nr)/[I(Zmax-Zmin)]
B = MBr W(Zmax+Zmin)/2
M = Ks1/r
dg W = matriks bobot utk initialisasi
B = nilai awal bias
74

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

W nr = matriks acak normal baris,


baris, yaitu matriks yg
elemen2nya bil acak seragam antara -1 dan 1 yg
diolah sehingga vektor2 barisnya memiliki arah
acak dg besar 1 satuan
I = vektor kolom yg elemenya bil 1 dan ukuranya
sama dg dimensi baris W
Zmax = vektor kolom nilai max masukan yg pd
pelatihan dikalikan dg w
Zmin = vektor kolom nilai min masukan yg pd
pelatihan dikalikan dg w
Br = vektor kolom acak seragam

K = konstanta yg bergantung pd fungsi aktivasi,


aktivasi,
yaitu 0,7 utk tangentangen-sigmoid dan 2,8 utk logistiklogistiksigmoid
s = dimensi baris matriks bobot
r = dimensi kolom matriks bobot

75

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Contoh penggunaan JST :


Prediksi molaritas air teh
M(gr/l)
M(gr/l) = masa daun teh (gr)
gr) / volume air (l)

Penentuan kadar tanah dalam air


 Di sini digunakan metode ultrasonik untuk
menentukan kecepatan rambat gelombang dan
atenuasi gelombang pada air yg mengandung
tanah
 Kecepatan turun jika kadar tanah naik,
naik, sedang
atenuasi naik jika kadar tanah naik.
naik.
 JST dilatih dg pasangan data

Input : kecepatan dan atenuasi

Output : kadar tanah

Kamera
CCD
Gelas
teh

lampu

76

PC dg frame
grabber

JST dilatih dg pasangan data :


input : koordinat warna
output : molaritas
77

78

13

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Sistem kontrol feedback & feedforward


feedforward
controller
+

planning
desired
response

feedback
controller

Identifikasi plant dg JST


u(k)

output

yp(k)

plant
TDL

plant

TDL

JST

bisa menggunakan JST sbb:


sbb:
JST

p(k)

p(k+1)

Z-1

output

plant
e

ei(k)

TDL = tapped delay line, di mana outputnya sama


dg delayed values of the input

JST
79

80

JARINGAN SYARAF TIRUAN

JARINGAN SYARAF TIRUAN

Direct adaptive control dg JST

Indirect adaptive control


ym

reference model

r
ec

u
plant

reference model
u

JST

plant

TDL

ec

yp

ec

yp
ym

ym

reference model

ec

controller

controller

identification
model ()
ei
plant

+
-

yp

ei

TDL

81

82

JARINGAN SYARAF TIRUAN


Indirect adaptive control dg JST
reference model

ym
-

ei
r

z-1

JST, Ni
TDL

TDL

plant

+
+

TDL
u

JST, Nc

ec

p
ei
-

yp
TDL

83

14

Anda mungkin juga menyukai