Anda di halaman 1dari 6

JURNAL ITSMART Vol 1. No 1.

Juni 2012 ISSN : 2301–7201

Pengaruh Normalisasi Data pada Jaringan Syaraf Tiruan


Backpropagasi Gradient Descent Adaptive Gain
(BPGDAG) untuk Klasifikasi
Nurul Chamidah Wiharto Umi Salamah
Jurusan Teknik Informatika Jurusan Teknik Informatika Jurusan Teknik Informatika
Fakultas MIPA UNS Fakultas MIPA UNS Fakultas MIPA UNS
Jl. Ir. Sutami No. 36 A Surakarta Jl. Ir. Sutami No. 36 A Surakarta Jl. Ir. Sutami No. 36 A Surakarta
nurulchamidah.2007@gmail.com wi_harto@yahoo.com umi_salamah@yahoo.com

ABSTRAK normalisasi pada algoritma backpropagasi dengan kasus


Algoritma pelatihan pada multilayer perceptron menggunakan diabetes mellitus. Algoritma pelatihan yang digunakan adalah
backpropagasi, biasanya fungsi akitvasi yang digunakan adalah algoritma backpropagasi momentum. Algoritma tersebut
fungsi sigmoid. Fungsi tersebut akan membawa nilai input merupakan perbaikan dari algoritma gradient descent. Metode
dengan range yang tak terbatas ke nilai output yang terbatas, normalisasi yang digunakan belum mengakomodasi dua buah
yaitu dalam sebuah range 0 sampai 1. Supaya dapat membawa metode normalisasi yaitu decimal scaling dan softmax.. Selain
range nilai output ke dalam range input, maka data input harus itu dalam penelitian tersebut mengabaikan missing value.
dilakukan normalisasi data ke dalam range 0 sampai 1, sehingga Berdasarkan penelitian yang dilakukan Paulin dan
outputnya dapat di denormalisasi ke dalam range nilai input. Santhakumaran [3] pembuangan instance data yang
Metode normalisasi ada bermacam-mcam, masalahnya, metode mengandung missing value akan mempengaruhi akurasi dalam
mana yang paling efektif untuk kasus klasifikasi menggunakan diagnosa.
algoritma pelatihan BPGD/AG. Penelitian ini akan menganalisa Penelitian berkaitan dengan perbaikan algoritma gradient
metode normalisasi mana yang paling efektif untuk descent untuk pelatihan multi-layer perceptron telah banyak
mengklasifikasi data pada algoritma BPGD/AG. Eksperimen dilakukan. Perbaikan tersebut bertujuan untuk meningkatkan
dilakukan pada data kanker payudara yang diklasifikasikan ke performa dari JST, baik dalam hal akurasi maupun kecepatan
dalam kanker ganas dan kanker jinak. Hasil evaluasi konvergensi. Selain dengan momentum, perbaikan algoritma
menunjukkan bahwa metode normalisasi Min-Max dengan menambahkan parameter Gain yang nilainya adaptive,
memberikan akurasi tertinggi hingga 96.86% dengan rata-rata sehingga menjadi Backpropagasi Gredient Descent dengan
iterasi sebanyak 21 epoch. Adaptive Gain (BPGD/AG) [7]. Algoritma BPGD/AG terbukti
mampu meningkatkan efektifitas prediksi dan kecepatan
Kata Kunci training untuk prediksi dari data penyakit jantung [9].
Backpropagasi, Normalisasi, Denormalisasi, Min-max,
Berangkat dari penelitian-penelitian tersebut, peneliti akan
Sigmoid.
menganalisis efektifitas klasifikasi data dengan metode
1. PENDAHULUAN normalisasi softmax, min-max, z-score, sigmod, decimal
Syaraf Tiruan (JST) merupakan salah satu metode yang dapat scaling dan statistical column. Data yang akan di kalsifikasi
digunakan untuk mengklasifikasi data, dimana klasifikasi sebelum dinormalisasi dilakukan pembuangan instance data
diperlukan untuk memprediksi kelas dari suatu data. JST efektif yang mengandung missing value dengan metode median.
digunakan dalam klasifikasi data yang jumlah variabelnya Algoritma pembelajaran yang digunakan untuk pelatihan
cukup banyak dan memiliki korelasi variabel yang kompleks. multilayer perceptron dipilih algoritma Backpropagasi Gradient
Kelebihan JST salah satunya adalah kemampuannya dalam Descent dengan Adaptive Gain (BPGD/AG) untuk mendapatkan
beradaptasi dan mampu belajar dari data masukan yang hasil klasifikasi yang optimal pada kasus kanker payudara.
diberikan sehingga dapat memetakan hubungan antara masukan
dan keluarannya. Selain itu JST mampu memprediksi keluaran
berdasarkan masukan yang telah dilatihkan sebelumnya. 2. METODE PENELITIAN
JST mempunyai banyak struktur jaringan, diantaranya Langkah kerja eksperimen dalam penelitian dilakukan melalui
multilayer perceptron. Untuk melakukan pelatihan pada struktur beberapa tahapan. Tahapan-tahapan tersebut ditunjukkan pada
ini menggunakan algoritma backpropagasi. Algoritma pelatihan gambar berikut
pada multilayer perceptron menggunakan backpropagasi,
biasanya fungsi akitvasi yang digunakan adalah fungsi sigmoid.
Fungsi tersebut akan membawa nilai input dengan range yang
tak terbatas ke nilai output yang terbatas, yaitu dalam sebuah
range 0 sampai 1[1]. Supaya dapat membawa range nilai output
ke dalam range input, maka data input harus dilakukan
normalisasi data ke dalam range 0 sampai 1, sehingga
outputnya dapat di denormalisasi ke dalam range nilai input.
Metode normalisasi ada bermacam-mcam, masalahnya, metode
mana yang paling efektif untuk kasus klasifikasi.
Beberapa penelitian yang berkaitan dengan metode normalisasi
sudah pernah dilakukan, diantaranya penelitian Jayalakshmi [2].
Penelitian tersebut membahsa tentang pengaruh metode

28
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201

Tabel 1 Atribut data kanker


No. Atribut Domain
1. Sample code number id number
2. Clump Thickness 1 – 10
3. Uniformity of Cell Size 1 – 10
4. Uniformity of Cell Shape 1 – 10
5. Marginal Adhesion 1 – 10
6. Single Epithelial Cell Size 1 – 10
7. Bare Nuclei 1 – 10
8. Bland Chromatin 1 – 10
9. Normal Nucleoli 1 – 10
10. Mitoses 1 – 10
Gambar 1 Langkah-langkah penelitian 11. Class 2 untuk kanker jinak,
4 untuk kanker ganas
1. Meload data
2. Mereplace missing value dengan metode median
3. Menormalisasi data dengan memvariasikan metode 2.2 Preproses Data
normalisasi agar range nilainya antara nol dan satu. Data Preproses data dilakukan dengan mereplace missing value dan
ternormalisasi ini nantinya akan digunakan sebagai input menormalisasi data ke dalam rang 0 dan 1 dengan
dalam JST. menggunakan beberapa metode. Berikut metode preproses yang
4. Membagi data menjadi dua bagian, 80% untuk training dan digunakan dalam penelitian ini ;
20% untuk test.
5. Membuat arsitektur neural network dengan tiga layer yakni a. Mereplace Missing value
input layer, hidden layer, dan output layer. Dimana jumlah Data yang hilang (missing value) di-replace dengan
node input sama dengan jumlah input dari kasus, jumlah metode median. Yakni dengan mencari nilai tengah dan
node hidden neuron pada hidden layer sebanyak enam me-replace semua nilai yang hilang dengan nilai tengah
neuron, dan satu node output. tersebut. Metode ini merupakan metode replacement yang
6. Untuk setiap data ternormalisasi dengan metode yang paling baik untuk kasus Wisconsin breast Cancer
berbeda, dilakukan langkah vii - ix Diagnosis dengan Backpropagsi [3].
7. Melatih jaringan dengan data training dengan epoch Nilai tengah untuk data ganjil :
tertentu.
(1)
8. Melakukan tes dengan data tes Me = X
n +1
9. Mengevaluasi keakuratan klasifikasi untuk data
ternormalisasi. 2
10. Selesai Nilai tengah untuk data genap :
Xn + Xn
+1
2.1 Data set Me = 2 2 (2)
Klasifikasi ini diaplikasikan pada dataset kanker payudara yang 2
diperoleh dari UCI Machine Learning Repository [14] b. Normalisasi
sumbangan Rumah Sakit University of Wisconsin Madison dari Metode normalisasi yang digunakan dalam penelitian
Dr. William H. Wolberg [14] di http://archive.ics.uci.edu/ml/. ini adalah dengan mentransformasi data ke dalam range 0
Jumlah data 699 dengan 16 nilai atribut yang hilang, 458 dan 1. Metode - metode yang digunakan antara lain :
(65.5%) tumor jinak dan 241 (34,5%) tumor ganas dengan
deskripsi atribut sebagai berikut. • Decimal scaling: digunakan ketika nilai berada dalam
rentang logaritmik, misalnya rentang suatu nilai
adalah antara 0 dan 1 sedangkan nilai lain pada
rentang 0 dan 1000 [7].
s
s' = (3)
10 n
Dimana n = log10 max{sk }
• Sigmoid : metode ini mengubah nilai kedalam range
antara 0 dan 1 dengan fungsi sigmoid [1].
1
s' = (4)
1 + e −s
• Softmax : metode ini mengubah nilai kedalam range
antara 0 dan 1 menggunakan fungsi sigmoid dengan
memanfaatkan mean dan standar deviasi [11].

29
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201

1 (5)
s' = s −µ
−( ) Arsitektur yang digunakan dalam BPGD/AG ini adalah satu
1+ e σ
input layer, satu hidden layer, dan satu output layer dengan
Dimana µ adalah rata-rata dari tiap kolom dan σ formasi neuron 9-6-1. fungsi aktivasi yang dipakai adalah
merupakan standar deviasi. fungsi sigmoid dengan learning rate 0.01. Pada input layer,
yang menjadi input neuron adalah input variabel data kasus
• Min-max normalization: metode ini me-rescale data dengan sembilan variabel yakni, Clump Thickness, Uniformity
dari suatu range ke range baru lain. Data di skalakan of Cell Size, Uniformity of Cell Shape, Marginal Adhesion,
dalam range 0 dan 1. Diberikan nilai yang Single Epithelial Cell Size, Bare Nuclei, Bland Chromatin,
bersesuaian (dalam satu kolom) {sk}, k=1,2,.. n. Normal Nucleoli, dan Mitoses. Pada hidden layer terdapat enam
Maka nilai normalisasinya adalah [1] : hidden neuron [10]. Pada Output layer terdapat satu hidden
s− min{s k } neuron untuk output, yakni hasil klasifikasi apakah kanker
s' = (6)
max{s k } − min{s k } tersebut jinak atau ganas.
Algoritma Feed forward Backpropagation Gradient
• Statistical column : menormalisasi tiap sampel
Descent dengan Adaptive Gain yang digunakan untuk
dengan sebuah nilai kolom ternormalisasi yakni
pelatihan adalah sebagai berikut :
dengan transformasi sqrt [13], yakni dengan
menghitung normalisasi dari tiap kolom dengan Tahapan 0 : Pemberian inisialisasi bobot, bias dan gain
mengakar kuadratkan kemudian setiap sampel dibagi dengan nilai tertentu.
dengan nilai normalisasi kolom tersebut dan dikalikan Tahapan 1: Menjalankan semua tahapan dari tahapan ke
dengan nilai bias kecil [1]. 2 sampai dengan tahapan ke 15 hingga
s(i) − n(c a ) kondisi iterasi terpenuhi.
s' = × 0.1 (7)
n(c a ) Tahapan 2 : Setiap data pelatihan melakukan langkah 3
• Z-score: teknik ini menggunakan rata-rata dan standar sampai dengan langkah 14.
deviasi untuk menormalisasi tiap input [1]. Feedforward
s− µ (8)
s' = Tahapan 3 : Untuk setiap unit masukan (Xi = 1, ... n)
σ menerima sinyal masukan dan diberi notasi
Xi kemudian dikirimkan ke unit berikutnya
2.3 Struktur Jaringan Syaraf Tiruan yaitu unit hidden layer.
Konsep algoritma backpropagsi adalah menyesuaikan
bobot jaringan dengan mempropagasi error dari output ke Tahapan 4 : Pada masing-masing hidden neuron, input
input. Selama pelatihan, jaringan meminimisasi error dengan Xi dikalikan dengan penimbang dan
mengestimasi bobot dan berhenti pada Minimum Squared Error dijumlahkan serta di tambah dengan
(MSE) 0.05 atau maksimal iterasi sebanyak 1000 epoch. biasnya.
Prosedur minimasi dilakukan dengan Backpropagasi Gradient
Descent dengan Adaptive Gain (BPGD/AG) dan fungsi aktivasi  n 
sigmoid. Berikut struktur jaringan syaraf tiruan multilayer Z_in =  ∑ X V  + V (9)
perceptron dengan satu hidden layer
j
 i = 1 i ij  0 j
Kemudian melakukan fungsi pengaktifan
menggunakan:

Z j = f(Z_in j ) (10)

Dalam bentuk Sigmoid fungsi


pengaktifannya menjadi:

1
Zj =
−c_z jZ_in j (11)
1+ e
Setelah melewati tahap pengaktifan maka
keluaranya dikirim ke semua unit keluaran.
Tahapan 5 : Untuk setiap unit keluaran (Yk,
k=1,2,...m), unit Zj dikalikan dengan
penimbang dan dijumlahkan serta
ditambahkan dengan biasnya:

 ∑p W 
Y_in k =  j=1 jk Z j  + W0 k (12)
 
Kemudian dilakukan fungsi pengaktifan:

Yk = f(Y_ink ) (13)
Gambar 2 Struktur Jaringan syaraf Tiruan Multilayer perceptron

30
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201

W0 k = W0 k + ∆W0 k (23)

Dalam fungsi Sigmoid menjadi : Vij = Vij + ∆Vij (24)

1 V0 j = V0 j + ∆V0 j (25)
Yk = −c_y k Y_in k (14)
1+ e Tahapan 12 : Menghitung perubahan gain pada output
Backpropagasi dan perubahan bobot  ∂E 
∆c_yk = η −  (26)
Tahapan 6 : Pada setiap unit keluaran berupa Yk
 ∂ c_y k 
mendapatkan pola target seperti pola  
masukan saat pelatihan dan dihitung
errornya: dimana,
2 ∂E
E = ∑ (t k − Yk ) (15) = − (t k − Yk ) Yk (1 − Yk )( ∑ W jk Yk + W0 k )
∂ c_y k
Tahapan 7 : Menghitung perubahan bobot pada link
menuju output
Sehingga
 ∂E 
∆W jk = η −  (16) ∆c_y k = η(t k − Yk ) Yk (1 − Yk )( ∑ W jk Yk + W0 k )
 ∂ W jk 
 
Tahapan 13 : Menghitung perubahan gain pada hidden
neuron
Bentuk hasil turunan parsialnya

∆W jk = η(t k − Yk ) Yk (1 − Yk ) c_y k Z j
 
∂E
∆c_z j = η −  (27)
 ∂ c_z j 
Tahapan 8 : Menghitung perubahan bias pada link  
menuju output
dimana,

∆W0 k = η −

 ∂E

 (17)
∂ E

∂ c_z j
[
= ∑ c_y k W jk Y k (1 − Y k )(t k − Y k ) *
k
]
 ∂ W0 k 
Bentuk hasil turunan parsialnya 
Z j (1 − Z j )   ∑ V ij X i
 
+ V0 j 
∆W0 k = η(t k − Yk ) Yk (1 − Yk ) c_y k
 j  
(18)

[ ]
Sehingga
Tahapan 9 : Menghitung perubahan bobot pada link
menuju hidden neuron ∆c_z j = η − ∑ c_y k W jk Yk (1 − Yk )(t k − Yk ) *
k
 
∂E   + V 
∆Vij = η −  (19) Z j (1 − Z j )  ∑ Vij X i 
 ∂ Vij   j  0j 
 
Bentuk hasil turunan parsialnya Tahapan 14 : Mengupdate gain
  c_yk = c_y k + ∆c_yk (28)
∆V = η  ∑ c_y W Y (1 − Y )(t − Y )  * tmp
ij
 k k jk k k k k
 c_z j = c_z j + ∆c_z j (29)

Tahapan 15 : Iterasi berakhir


tmp = c_z Z (1 − Z ) X (20)
j j j i

Kondisi berhenti
Tahapan 10: Menghitung perubahan bias pada link menuju Epoch = maksimal iterasi
hidden neuron
∑E
 ∂E  Atau MSE ≤
jumlahdata
(30)
∆V0j = η −  (21) jumlahdata
 ∂V0j 
 
Tahapan 11 : Mengupdate semua bobot dan bias
W jk = W jk + ∆W jk (22)

31
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201

3. PEMBAHASAN paling tinggi untuk kasus klasifikasi kanker payudara. Hasil


Eksperimen ini dilakukan dengan dua proses, yakni proses perbandingan menunjukkan bahwa normalisasi dengan metode
training dan proses testing. Dari 699 record data, proses training minmax memberikan rata-rata akurasi tertinggi bila
menggunakan 80% dari data, yakni dengan merandom 80% dibandingkan dengan metode lain serta memerlukan epoch yang
record dari data kanker jinak dan 80% record dari data kanker paling sedikit,
ganas, sedangkan sisanya untuk proses testing yang dilakukan (%)
dengan menggunakan random 20% data, terdiri dari 20% record 96.00 96.19 96.86 95.91 95.68
100.00
dari kanker jinak dan 20% dari kanker ganas.
76.91
Pada setiap satu variasi eksperimen, dilakukan seratus kali 80.00
pengulangan. Setiap pengulangan pada proses training,
diberikan nilai inisial bobot random dan didapatkan jumlah 60.00

iterasi untuk mencapai konvergensi. Percobaan berhenti pada


MSE atau pada maksimal iterasi dan diasumsikan telah 40.00

mencapai konvergensi serta menghasilkan bobot yang akan


20.00
digunakan untuk testing.
Setiap bobot hasil training yang telah konvergen dipakai 0.00
untuk melakukan testing. Data klasifikasi hasil testing

n
ax
d

ax

m
in

re
oi

m
al

lu
ftm

co
gm
sc

in

co
dibandingkan dengan data klasifikasi yang sebenarnya sehingga

zs
m
so
si
al

al
m

tic
diperoleh jumlah data yang diprediksi benar dan yang

ci

is
de

at
st
diprediksi salah. Metode
Evaluasi dari eksperimen dilakukan dengan mengambil
rata-rata epoch dan akurasi dari seratus pengujian, hasil Gambar 4 Rata-rata akurasi
pengujian pada penelitian ini dapat dilihat pada Tabel 2.

4. PENUTUP
Tabel 2 Perbandingan metode normalisasi Penelitian ini menunjukkan pengaruh metode normalisasi data
Kriteria rata-rata rata-rata pada algoritma JST Backpropagasi Gradient Descent dengan
Metode epoch akurasi (%) Adaptive Gain (BPGD/AG) untuk klasifikasi yang diujikan
dengan data kasus kanker payudara. Evaluasi dari eksperimen
decimal scaling 40 96.00 menunjukkan bahwa efektifitas JST BPGD/AG sangat
sigmoid 584 76.91 dipengaruhi oleh metode normalisasi yang dipilih untuk
mencapai akurasi terbaik, dan metode normalisasi yang
softmax 49 96.19 memberikan efektifitas terbaik dalam hal akurasi dan kecepatan
min-max 21 96.86 konvergensi adalah metode Minmax yang mencapai akurasi
rata-rata hingga 96.86% dan memerlukan iterasi yang paling
statistical column 45 95.91 sedikit dengan rata-rata sebanyak 21 epoch.
zscore 38 95.68

5. DAFTAR PUSTAKA
Perbandingan ratarata epoch dari berbagai metode normalisasi [1] Kusumadewi, Sri. Membangun Jaringan Syaraf Tiruan
ditunjukkan pada Gambar 3, daro gambar tersebut dapat dilihat Menggunakan Matlab & Exel Link. 2004. Graha Ilmu.
bahwa minmax memiliki rata-rata epoch paling rendah yang Yogyakarta. pp. 150-161
berarti metode minmax memiliki waktu yang paling singkat [2] Jayalakshmi, T. and Santhakumaran, A. 2011. Statistical
untuk mencapai konvergensi. Normalization and Back Propagation for Classification.
Epoch International Journal of Computer Theory and
600
584 Engineering. III(1).
[3] Paulin, F. and Santhakumaran, A. 2010. An Algorithm to
500 Reconstruct the Missing Values for Diagnosing the Breast
Cancer. Global Journal of Computer Science and
400 Technology. X(2).
300
[4] Bishop C.M., Neural Networks for pattern recognition.
1995:Oxford University Press.
200 [5] Huang H.Y., A unified Approach to quadratically
convergent algorithms for function minimization. J. Optim.
100 49 45
40
21 38 Theory Application, 1970.5:p. 405-423.
0 [6] M. R. Hestenes and E. Stiefel, Methods of conjugate
Gradient fr solving linear systems. J. Research NBS, 1952.
g

n
ax
d

ax
in

re
oi

49:p.409.
m
al

ftm

co
gm

lu
in
sc

co

zs
so

m
si

[7] Nandakumar, K., Anil J., Arun R. 2005. Score


al

al
m

tic
ci

is

Normalization in Multimodal Biometric Systems. Pattern


de

at

Metode
st

Recognition 38. pp. 2270-2285


[8] Nawi, N. M., M. R. Ransing, and R. S. Ransing. A New
Gambar 3 Rata-rata epoch
Improvement Of Back-Propagation Neural Network
Sedangkan perbandingan rata-rata akurasi ditunjukkan Learning Algorithms With Adaptive Gain. Journal of
pada Gambar 4 dimana metode minmax memiliki akurasi yang Science and Technology.

32
JURNAL ITSMART Vol 1. No 1. Juni 2012 ISSN : 2301–7201

[9] Nawi, N. M., R. Ghazali and M.N.M. Salleh. 2011. [13] Roberts, Seth. 2008. Statistics column : Transform your
Predicting Patients with Heart Disease by Using an data. Nutrition 24. pp. 492–494
Improved Back-propagation Algorithm. Journal of [14] UCI Machine Learning Repository.
Computing. III(2) : 53-58. [http://archive.ics.uci.edu/ml/]. Irvine, CA: University of
[10] Paulin F. and Santhakumaran A. 2010. Back Propagation California, Center for Machine Learning and Intelligent
Neural Network by Comparing Hidden Neuron: Case Systems
Study on Breast Cancer Diagnosis. International Journal [15] Wolberg W. H. And Mangasarian O.L, “Multisurface
of Computer Application, II(4). method of pattern separation for medical diagnosis applied
[11] Priddy, Kevin L. and Paul E. Keller. 2005. Artificial to breast cytology”, in proceedings of the National
Neural Networks: An Introduction, Washington : SPIE - Academy of Sciences, vol. 87, 9193-9196, U.S.A.,*(Dec.
The International Society for Optical Engineering. 1990)
[12] R.A. Jacobs, Increased rates of convergence through
learning rate adaptation. Neural Networks, 1988.1:p. 295-
307.

33

Anda mungkin juga menyukai