582 1242 1 PB
582 1242 1 PB
28
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201
29
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201
1 (5)
s' = s −µ
−( ) Arsitektur yang digunakan dalam BPGD/AG ini adalah satu
1+ e σ
input layer, satu hidden layer, dan satu output layer dengan
Dimana µ adalah rata-rata dari tiap kolom dan σ formasi neuron 9-6-1. fungsi aktivasi yang dipakai adalah
merupakan standar deviasi. fungsi sigmoid dengan learning rate 0.01. Pada input layer,
yang menjadi input neuron adalah input variabel data kasus
• Min-max normalization: metode ini me-rescale data dengan sembilan variabel yakni, Clump Thickness, Uniformity
dari suatu range ke range baru lain. Data di skalakan of Cell Size, Uniformity of Cell Shape, Marginal Adhesion,
dalam range 0 dan 1. Diberikan nilai yang Single Epithelial Cell Size, Bare Nuclei, Bland Chromatin,
bersesuaian (dalam satu kolom) {sk}, k=1,2,.. n. Normal Nucleoli, dan Mitoses. Pada hidden layer terdapat enam
Maka nilai normalisasinya adalah [1] : hidden neuron [10]. Pada Output layer terdapat satu hidden
s− min{s k } neuron untuk output, yakni hasil klasifikasi apakah kanker
s' = (6)
max{s k } − min{s k } tersebut jinak atau ganas.
Algoritma Feed forward Backpropagation Gradient
• Statistical column : menormalisasi tiap sampel
Descent dengan Adaptive Gain yang digunakan untuk
dengan sebuah nilai kolom ternormalisasi yakni
pelatihan adalah sebagai berikut :
dengan transformasi sqrt [13], yakni dengan
menghitung normalisasi dari tiap kolom dengan Tahapan 0 : Pemberian inisialisasi bobot, bias dan gain
mengakar kuadratkan kemudian setiap sampel dibagi dengan nilai tertentu.
dengan nilai normalisasi kolom tersebut dan dikalikan Tahapan 1: Menjalankan semua tahapan dari tahapan ke
dengan nilai bias kecil [1]. 2 sampai dengan tahapan ke 15 hingga
s(i) − n(c a ) kondisi iterasi terpenuhi.
s' = × 0.1 (7)
n(c a ) Tahapan 2 : Setiap data pelatihan melakukan langkah 3
• Z-score: teknik ini menggunakan rata-rata dan standar sampai dengan langkah 14.
deviasi untuk menormalisasi tiap input [1]. Feedforward
s− µ (8)
s' = Tahapan 3 : Untuk setiap unit masukan (Xi = 1, ... n)
σ menerima sinyal masukan dan diberi notasi
Xi kemudian dikirimkan ke unit berikutnya
2.3 Struktur Jaringan Syaraf Tiruan yaitu unit hidden layer.
Konsep algoritma backpropagsi adalah menyesuaikan
bobot jaringan dengan mempropagasi error dari output ke Tahapan 4 : Pada masing-masing hidden neuron, input
input. Selama pelatihan, jaringan meminimisasi error dengan Xi dikalikan dengan penimbang dan
mengestimasi bobot dan berhenti pada Minimum Squared Error dijumlahkan serta di tambah dengan
(MSE) 0.05 atau maksimal iterasi sebanyak 1000 epoch. biasnya.
Prosedur minimasi dilakukan dengan Backpropagasi Gradient
Descent dengan Adaptive Gain (BPGD/AG) dan fungsi aktivasi n
sigmoid. Berikut struktur jaringan syaraf tiruan multilayer Z_in = ∑ X V + V (9)
perceptron dengan satu hidden layer
j
i = 1 i ij 0 j
Kemudian melakukan fungsi pengaktifan
menggunakan:
Z j = f(Z_in j ) (10)
1
Zj =
−c_z jZ_in j (11)
1+ e
Setelah melewati tahap pengaktifan maka
keluaranya dikirim ke semua unit keluaran.
Tahapan 5 : Untuk setiap unit keluaran (Yk,
k=1,2,...m), unit Zj dikalikan dengan
penimbang dan dijumlahkan serta
ditambahkan dengan biasnya:
∑p W
Y_in k = j=1 jk Z j + W0 k (12)
Kemudian dilakukan fungsi pengaktifan:
Yk = f(Y_ink ) (13)
Gambar 2 Struktur Jaringan syaraf Tiruan Multilayer perceptron
30
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201
W0 k = W0 k + ∆W0 k (23)
1 V0 j = V0 j + ∆V0 j (25)
Yk = −c_y k Y_in k (14)
1+ e Tahapan 12 : Menghitung perubahan gain pada output
Backpropagasi dan perubahan bobot ∂E
∆c_yk = η − (26)
Tahapan 6 : Pada setiap unit keluaran berupa Yk
∂ c_y k
mendapatkan pola target seperti pola
masukan saat pelatihan dan dihitung
errornya: dimana,
2 ∂E
E = ∑ (t k − Yk ) (15) = − (t k − Yk ) Yk (1 − Yk )( ∑ W jk Yk + W0 k )
∂ c_y k
Tahapan 7 : Menghitung perubahan bobot pada link
menuju output
Sehingga
∂E
∆W jk = η − (16) ∆c_y k = η(t k − Yk ) Yk (1 − Yk )( ∑ W jk Yk + W0 k )
∂ W jk
Tahapan 13 : Menghitung perubahan gain pada hidden
neuron
Bentuk hasil turunan parsialnya
∆W jk = η(t k − Yk ) Yk (1 − Yk ) c_y k Z j
∂E
∆c_z j = η − (27)
∂ c_z j
Tahapan 8 : Menghitung perubahan bias pada link
menuju output
dimana,
∆W0 k = η −
∂E
(17)
∂ E
∂ c_z j
[
= ∑ c_y k W jk Y k (1 − Y k )(t k − Y k ) *
k
]
∂ W0 k
Bentuk hasil turunan parsialnya
Z j (1 − Z j ) ∑ V ij X i
+ V0 j
∆W0 k = η(t k − Yk ) Yk (1 − Yk ) c_y k
j
(18)
[ ]
Sehingga
Tahapan 9 : Menghitung perubahan bobot pada link
menuju hidden neuron ∆c_z j = η − ∑ c_y k W jk Yk (1 − Yk )(t k − Yk ) *
k
∂E + V
∆Vij = η − (19) Z j (1 − Z j ) ∑ Vij X i
∂ Vij j 0j
Bentuk hasil turunan parsialnya Tahapan 14 : Mengupdate gain
c_yk = c_y k + ∆c_yk (28)
∆V = η ∑ c_y W Y (1 − Y )(t − Y ) * tmp
ij
k k jk k k k k
c_z j = c_z j + ∆c_z j (29)
Kondisi berhenti
Tahapan 10: Menghitung perubahan bias pada link menuju Epoch = maksimal iterasi
hidden neuron
∑E
∂E Atau MSE ≤
jumlahdata
(30)
∆V0j = η − (21) jumlahdata
∂V0j
Tahapan 11 : Mengupdate semua bobot dan bias
W jk = W jk + ∆W jk (22)
31
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201
n
ax
d
ax
m
in
re
oi
m
al
lu
ftm
co
gm
sc
in
co
dibandingkan dengan data klasifikasi yang sebenarnya sehingga
zs
m
so
si
al
al
m
tic
diperoleh jumlah data yang diprediksi benar dan yang
ci
is
de
at
st
diprediksi salah. Metode
Evaluasi dari eksperimen dilakukan dengan mengambil
rata-rata epoch dan akurasi dari seratus pengujian, hasil Gambar 4 Rata-rata akurasi
pengujian pada penelitian ini dapat dilihat pada Tabel 2.
4. PENUTUP
Tabel 2 Perbandingan metode normalisasi Penelitian ini menunjukkan pengaruh metode normalisasi data
Kriteria rata-rata rata-rata pada algoritma JST Backpropagasi Gradient Descent dengan
Metode epoch akurasi (%) Adaptive Gain (BPGD/AG) untuk klasifikasi yang diujikan
dengan data kasus kanker payudara. Evaluasi dari eksperimen
decimal scaling 40 96.00 menunjukkan bahwa efektifitas JST BPGD/AG sangat
sigmoid 584 76.91 dipengaruhi oleh metode normalisasi yang dipilih untuk
mencapai akurasi terbaik, dan metode normalisasi yang
softmax 49 96.19 memberikan efektifitas terbaik dalam hal akurasi dan kecepatan
min-max 21 96.86 konvergensi adalah metode Minmax yang mencapai akurasi
rata-rata hingga 96.86% dan memerlukan iterasi yang paling
statistical column 45 95.91 sedikit dengan rata-rata sebanyak 21 epoch.
zscore 38 95.68
5. DAFTAR PUSTAKA
Perbandingan ratarata epoch dari berbagai metode normalisasi [1] Kusumadewi, Sri. Membangun Jaringan Syaraf Tiruan
ditunjukkan pada Gambar 3, daro gambar tersebut dapat dilihat Menggunakan Matlab & Exel Link. 2004. Graha Ilmu.
bahwa minmax memiliki rata-rata epoch paling rendah yang Yogyakarta. pp. 150-161
berarti metode minmax memiliki waktu yang paling singkat [2] Jayalakshmi, T. and Santhakumaran, A. 2011. Statistical
untuk mencapai konvergensi. Normalization and Back Propagation for Classification.
Epoch International Journal of Computer Theory and
600
584 Engineering. III(1).
[3] Paulin, F. and Santhakumaran, A. 2010. An Algorithm to
500 Reconstruct the Missing Values for Diagnosing the Breast
Cancer. Global Journal of Computer Science and
400 Technology. X(2).
300
[4] Bishop C.M., Neural Networks for pattern recognition.
1995:Oxford University Press.
200 [5] Huang H.Y., A unified Approach to quadratically
convergent algorithms for function minimization. J. Optim.
100 49 45
40
21 38 Theory Application, 1970.5:p. 405-423.
0 [6] M. R. Hestenes and E. Stiefel, Methods of conjugate
Gradient fr solving linear systems. J. Research NBS, 1952.
g
n
ax
d
ax
in
re
oi
49:p.409.
m
al
ftm
co
gm
lu
in
sc
co
zs
so
m
si
al
m
tic
ci
is
at
Metode
st
32
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201
[9] Nawi, N. M., R. Ghazali and M.N.M. Salleh. 2011. [13] Roberts, Seth. 2008. Statistics column : Transform your
Predicting Patients with Heart Disease by Using an data. Nutrition 24. pp. 492–494
Improved Back-propagation Algorithm. Journal of [14] UCI Machine Learning Repository.
Computing. III(2) : 53-58. [http://archive.ics.uci.edu/ml/]. Irvine, CA: University of
[10] Paulin F. and Santhakumaran A. 2010. Back Propagation California, Center for Machine Learning and Intelligent
Neural Network by Comparing Hidden Neuron: Case Systems
Study on Breast Cancer Diagnosis. International Journal [15] Wolberg W. H. And Mangasarian O.L, “Multisurface
of Computer Application, II(4). method of pattern separation for medical diagnosis applied
[11] Priddy, Kevin L. and Paul E. Keller. 2005. Artificial to breast cytology”, in proceedings of the National
Neural Networks: An Introduction, Washington : SPIE - Academy of Sciences, vol. 87, 9193-9196, U.S.A.,*(Dec.
The International Society for Optical Engineering. 1990)
[12] R.A. Jacobs, Increased rates of convergence through
learning rate adaptation. Neural Networks, 1988.1:p. 295-
307.
33