Anda di halaman 1dari 8

:

BAB 4. ALGORITMA PROPAGASI BALIK

Dinamakan probagasi balik oleh karena pada tahap pelatihannya


menggunakan dua tahap perhitungan yaitu perhitungan maju (forward
pass) dan perhitungan balik (bacla,uard pass\. Selain itu JNB propagasi
balik disebut juga jaringalr perseptron lapis jamak disebabkan .lNB
men-lpullyai tiga lapis (/aver') neuron l,aittt lapisail masukatr )1allg hanl'a
bertugas meneruskan input dan tidak melakukan komputasi" sedarrgkan
lapisan tersembunl i dan iapisan keluaran melakukan komputasi. Jumiah

neuron pada lapisan masukan salna dengan jumlah seltsor )/ang


digunakan dalam penelitian dan jumlah neuron pada lapisan keluaran
sama dengan jumlah kategori aroma ),ang akan dideteksi.

ARSITEKTT]R JARII\GAN

Lapisan masukan pada JNB dengan propagasi balik akan menjadi


input bagi lapisan tersembunyi dan output lapisan tersembunyi akau
:.
menjadi input bagi lapisan keluaran. Untuk semua neuron pada lapis
masukan akan terhubung pada setiap neuron pada lapisan tersembunl,i
dengan suatu nilai bobot. Demikian juga untuk semua neuron pada lapis
tersembunyi terhubung pada setiap neuron pada lapis keluaran. Lapisan
tersembunyi bisa terdiri dari beberapa lapisan, untuk lapis tersembunyi
pada penelitian ini berjumlah satu buah lapisan, bentuk arsitektur
jaringannya dapat dilihat pada gambar 12.

41
,:

"I
l. apis T ersem bunyi

xi 7.,

Ls rkan \-j i,api-s K eluaran

Ganrbar 4. 1 Arsitektur iaringan propagasi balik

dengan '

i :iumlah neuron lapis rnasukan


j : jumlah neuron lapis tcrsembunr,i
k : jumlah neuron lapis keluaran

Pengolairan Elemen

Dalam JNB dengan propagasi balik pengolahan elemennya terdiri


dari dua macarn jenis komputasi ,vang dinamakan komputasi maju dan
komputasi balik. Untuk jaringan neural buatan dengan satu lapis
tersembunyi, komputasi maju ),ang dilakukan dapat diuraikan sebagai
berikut :

o Neuron pada lapis tersembunyi menghitung nilai aktifasi dengan cara


menjumlahkan perkalian sinl,al masukan dari lapis masukan dengan
bobot antara lapis masukan dan lapisan tersembunyi yang mernpunyai
bias tertentu.
o Neuron tersebut lalu menghitung sinyal keluaran dengan menerapkan
fungsi aktifasi untuk nilai aktifasi yang telah dihitung.
o Sinyal keluaran dari lapis tersembunyi menjadi masukan bagi lapis

4-
keluaran untuk menghitung nilai aktifasinya dengan menjumlahkan
perkalian antara sinl'al keluaran lapis tersernbunyi dengan bobot
antara lapis tersembunyi dan lapisan keluaran dan menipunyai bias
tefientu.
o Neuron lapis keluaran menghitung sinyal keluaran dengan

menerapkan fungsi aktifasi untuk nilai aktifasi yang telah diliitung.

Sedangkan untuk komputasi balik !'ang bertujuan untuk menvesuaikan


bobot dalam jariugan. dapat diuraikan sebagai berikut :

o Setiap neuron di lapis keluaran mer-rghitung selisih target keluaran


dengan hasil sinyal keluaran.

e Setiap neuron di lapis kcluaran menyesuaikan bobot hubungan dari


dirinya ke semua neuron di lapis tersembunl,i.
. Lapis keluaran melakukan sin1,'al kesalahan ke lapis tersembun,vi
sehingga setiap neuron di lapis tersembunyi mcnyesuaikan bobot
hubungan dari dirinya ke semua neuron di lapis masukan.

Faktor-Faktor Dalam Pembelaj a ran


Ada beberapa faktor yang akan mempengaruhi proses pembelajaran
dalam jaringan neural buatan dengan propagasi balik antara lain:

Inisialisasi bobot
Bobot awal akan menentukan proses pembelajaran pada jaringan
neural untuk mencapai konvergensi dan mengalami global minima atau
local minima kesalahan. Dalam penelitian ini digunakan inisialisasi
secara acak dengarr nilai bobot yang berkisar antara -0.5 sampai dengan
0.5.

i
I

43

a
Fungsi aktifasi
Pada umunnya setiap unit yang berbeda dalam satu lapisan akan

mempunyai fungsi aktifasi yang sama dan fungsi aktifasi harus kontinu
dan monoton tidak menurun.[10]. Dalam penelitian ini digunakan fungsi
sigmoid unipolar yang dapat dinyatakan sebagai berikut :'

f(net) - I + e-nt'
dengan net adalah hasil keluaran komputasi dari setiap neuron.

Fungsi kesalahan
Sistem JNB dengan propagasi balik menggunakan prosedur
gradient descent atau menuruni lembah permukaan kesalahan, untuk
minimasi suatu fungsi kesalahan. Dan fungsi kesalahan yang digunakan
dalam penelitian ini berbentuk fungsi kesalahan kuadratis yang
dinl,atakan sebagai berikut :

E:UZZ(du -o.)'

dengan :

dr adalah target lapis keluaran

o1 adalah hasil kornputasi lapis keluaran

Laju pernbelajaran
Laju pemL'elajaran merupakan parameter jaringan yang berfungsi
untuk mengendalikan proses penvesuaian bobot, nilain.va tergantung

44

a
pada kasus yang dihadapi. Laju pembelajaran yang terlalu kecil
menvebabkan konvergensi jaringan meniadi lebih lambat, sedang laju
pembelajaran yang terlalu besar dapat menyebabkan ketidakstabilan
pada jaringan, sedangkan nilai laju pembelajaran dalarn penelitian ini
adaiah 0.001

\lomentum
Sistem JNB dengan propagasi balik dalam penelitian ini
menggunakan momentunl untuk nletnpercepat pelatihan jaringan.
Metode momentum melibatkan penl'esuaian bobot ditambah dengan
faktor tertentu dari penvesuaiatt sebeLunm)'a l-ang dinyatakan sebagai
berikut

wij (t + 1) - wtj (t) + cr8ry: + p[wij(t) - wij(t - 1)]


-/-

5k - ok.(1 - ok ).(d* - o* )

dengan,

w1 : nilai bobot
cr :la1u pembelajaran
6r : sinyal kesalahan,

tj
: hasil komputasi pada lapis sembunyi atau lapis keluaran

,"r : faktor momentum bernilai 0 s/d I

45
ALGORITMA PEN{RELAJARAI{

Algoritma sistem jaringan neural buatan dengan prcpagasi balik


secara lengkap dapat dinyatakan sebagai berikut :

Langkah 0 tnisialisasi bobot - bobot (dengan nilai acak vang kecil).

Langkah 1 Selama kondisi berhenti belum terpenuhi, jalankan langkah 2 - 9.

Langkah 2 Untuk setiap pasangan data pelatihan, jalankan langkah 3 * 8


I;eedfonrard :

Langkah 3 Setiap unit input (Xi, i - l, ... , n) rnenerima sinyal masukkan,.-; dan

menyebarkan sin-"--al tersebut ke lapisan tersembunyi.

Langkah 4 Setiap unit tersembunyi (21, j : l, ..., p) menjumlahkan sinyal

masukkan yang telah Ciberi bobot,

z-tnj=voj+ix,v,,
i-1

, lalu menjalankan fungsi aktivasinya untuk menghitung sinyal


keluaranny4

zi : fQ_in),

dan mengirimhan sinyal tersebut ke semua unit di lapisan keluaran.

Langkah 5 Setiap unit keluaran (Yn k - l, ... , m) menjumlahkan sinyal


masukannya yang telah diberi bobot,

46
, lalu men-ialankan fungsi aktivasinya untuk menghitung sinyal
keluarannl'a-

yr -' f(:' inil.

Propagasi kesalahan :

Langkah 6 Setiap unit keluaran(Y7, k l. . rt) menerima sebuah polatarget

viurg bersesuaian den-uan pola pelatih.il masukkan. lalu rnenghitune


informasi kesalahan.

iit " ftr 1,,6).f'-r1 in;t.

r-nenghitung koreksi bobotnya (untuk mengubah bobot xlr nanti)-

Att'.,s - a &:,.

dan menghitung koreksi biasnl'a (untuk mengubah u'o6),

Atl'oP: a fi'

lalu mengirimkan fi ke unit - unit di lapisan sebelumnya.

Langkah 7 Setiap unit tersembunyi (21, i : l, .. . p) menjrunlahkan masukan -


masukan deltanya (dari unit - unit di lapisan sesudahnya),

6-irr,=td*tr',,

, mengalikannya dengan turunan dari fungsi aktivasinya untuk


m enghitung nilai kesalahanxya

6t' 6 intJ'Q -inr),


menghitung koreksi bobot (unruk rnengubah r';7 kemudian).

At',, a fix"

47

j
dan menghitung koreksi biasnya(untuk mengubah l',i),

:11.,,i abi.

Pengubalrun boboi - hohot don hior :

Langkah 8 Setiap unit keluaran (Yr, k - l, .. . nr) mengubah bias dan bobot -
bobotrYa (l :0' 'P):

v itfi)lnt) "' tt'6(lanta) zlir *.

Setiap unit tersemburt\i (2,. I , 1. , p)rnengubah bias dan bobot -


bobonrl'a t'i 0. .n\ .

r,,(barttl' t'11(lottrctl -4t',..

Langkah 9 Pengujian kondisi berhenti.

48

Anda mungkin juga menyukai