Anda di halaman 1dari 6

Vol 1, No 3 Desember 2010 ISSN 2088-2130

KINERJA METODE EXTREME LEARNING MACHINE


(ELM) PADA SISTEM PERAMALAN
*
Bain Khusnul Khotimah, **Eka Mala Sari R, ***Handry Yulianarta
Jurusan Teknik Informatika, Fakultas Teknik, Universitas Trunojoyo Madura
Jl. Raya Telang PO. BOX 2 Kamal, Bangkalan, Madura 69192
E-mail: *bainkk@gmail.com

Abstrak

Metode Extreme Learning Machine (ELM) merupakan salah satu metode pembelajaran baru dari jaringan syaraf
tiruan. Metode ini memiliki tingkat pembelajaran yang lebih baik dibandingkan dengan metode konvensional
lainnya berdasarkan perhitungan hasil nilai error yang diukur menggunakan nilai MSE (Mean Square Error) dan
MAPE (Mean Absolute Percentage Error). Berdasarkan hasil uji coba menggunakan metode ELM diperoleh
nilai MSE dan MAPE terkecil dibandingkan dengan menggunakan algoritma Backpropagation. Dimana dari
metode ELM diperoleh hasil percobaan menggunakan konfigurasi hidden layer berjumlah 4, epoch 1000,
pengaturan range antara -0,4 – 0,4 menghasilkan rata-rata nilai MSE = 1,100% dan MAPE = 0.31%. Sedangkan
proses pembelajaran menggunakan metode Backpropagation dengan parameter perubahan hidden layer
berjumlah 4, E-poch maksimal 3000 , dan pengaturan momentum 0,4 mencapai nilai yang terbaik. Parameter
tersebut menghasilkan nilai error yang cukup baik saat sistem melakukan pengujian yaitu MSE = 3.1933% dan
MAPE = 0,96 %.

Kata kunci : metode pembelajaran, Extreme Learning Machine (ELM), MSE, MAPE

Abstract

Method of Extreme Learning Machine (ELM) is one of the new learning method of neural networks. This method
has a better learning rate compared to other conventional methods based on the calculation results of the error
value is measured using the MSE (Mean Square Error) and Mape (Mean Absolute Percentage Error). Based on
the test results obtained using the method of ELM and Mape smallest MSE value compared using
Backpropagation algorithm. Where the method of ELM dipeoleh experimental results using a hidden layer
configuration consists of 4, epoch 1000, setting the range between -0.4 - 0.4 MSE value = 1.100% and Mape =
0.31%. While the process of learning using the backpropagation method with a parameter change in the hidden
layer consists of 4, E-Poch maximum of 3000, and setting the momentum 0.4 achieved the best value. These
parameters generate the error value is quite good during the system test that is MSE = 3.1933% and Mape =
0.96%.

Key words: Forecasting, Extreme Learning Machine (ELM), MSE, MAPE

PENDAHULUAN kali dipengaruhi beberapa faktor yang tidak


Peramalan adalah prediksi atau perkiraan apa tampak pada saat keputusan itu diambil [1].
yang akan terjadi di masa yang akan datang. Peramalan bertujuan untuk mendapatkan
Proses peramalan merupakan suatu unsur yang perkiraan atau prediksi yang bisa
sangat penting dalam pengambilan keputusan, meminimumkan kesalahan dalam meramal
sebab efektif tidaknya suatu keputusan sering yang biasanya diukur dengan Mean Square
Error.

186
Extreme Learning Machine merupakan metode SLFN selalu memberikan hasil yang terbaik.
pembelajaran baru dari jaringan syaraf tiruan. Selain itu, kajian empiris tentang pemrosesan
Secara umum, masalah peramalan dapat awal data juga telah dilakukan dan
dinyatakan dengan sejumlah data runtun waktu menunjukkan bahwa pemilihan metode
(time series) [2]. pemrosesan awal data yang tepat dapat secara
Metode ini pertama kali diperkenalkan oleh signifikan meningkatkan ketepatan ramalan
Huang (2004). ELM merupakan jaringan syaraf dari SLFN [5].
tiruan feedforward dengan single hidden layer Metode Extreme Learning Machine (ELM)
atau biasa disebut dengan Single Hidden Layer Extreme Learning Machine merupakan
Feedforward neural Networks (SLFNs) Metode metode pembelajaran baru dari jaringan syaraf
pembelajaran ELM dibuat untuk mengatasi tiruan. Metode ini pertama kali diperkenalkan
kelemahan-kelemahan dari jaringan syaraf tiruan oleh Huang. ELM merupakan jaringan syaraf
feedforward terutama dalam hal learning speed. tiruan feedforward dengan single hidden layer
Huang et al mengemukaan dua alasan mengapa atau biasa disebut dengan Single Hidden Layer
JST feedforward lain mempunyai leraning speed Feedforward neural Networks (SLFNs)
rendah, pada ELM parameter-parameter seperti Metode pembelajaran ELM dibuat untuk
input weight dan hidden bias dipilih secara mengatasi kelemahan-kelemahan dari jaringan
random, sehingga ELM memiliki learning speed syaraf tiruan i terutama dalam hal learning
yang cepat dan mampu menghasilkan good speed. Huang et al mengemukaan dua alasan
generalization performance. Metode ELM mengapa JST feedforward lain mempunyai
mempunyai model matematis yang berbeda dari leraning speed rendah [3], yaitu :
jaringan syaraf tiruan feedforward. Model 1. menggunakan slow gradient based
matematis dari ELM lebih sederhana dan efektif learning algorithm untuk melakukan
[3][4]. training.
2. semua parameter pada jaringan
TINJAUAN PUSTAKA ditentukan secara iterative dengan
Pengenalan Metode Self Hidden Layer menggunakan metode pembelajaran
Feedforward Network (SLFN) tersebut.
Neural Networks (NN) merupakan salah satu Pada ELM parameter-parameter seperti input
contoh model nonlinear yang mempunyai bentuk weight dan hidden bias dipilih secara random,
fungsional fleksibel dan mengandung beberapa sehingga ELM memiliki learning speed yang
parameter yang tidak dapat diinterpretasikan cepat dan mampu menghasilkan good
seperti pada model parametrik. Salah satu bentuk generalization performance. Metode ELM
model NN yang banyak digunakan untuk mempunyai model matematis yang berbeda
berbagai aplikasi adalah Feedforward Neural dari jaringan syaraf tiruan feedforward. Model
Networks (FFNN). Bentuk umum FFNN yang matematis dari ELM lebih sederhana dan
digunakan untuk peramalan runtun waktu efektif. Berikut model matrematis dari ELM.
univariat pada umumnya adalah FFNN dengan Untuk N jumlah sample yang berbeda (Xi , ti ).
satu lapis tersembunyi dan satu unit neuron di
lapis output (SLFN). Estimasi parameter (weight) Xi = [ Xi1 , Xi2 ...., Xi n ] T € R n
model ini dilakukan dengan menerapkan Xt = [ Xt1 , Xt2 ...., Xt n ] T € R n, (1)
algoritma backpropagation pada suatu optimisasi
Nonlinear Least Squares [4]. Standart SLFNs dengan jumlah hidden nodes
Hasil kajian empiris menunjukkan bahwa sebanyak N dan activation function g ( x )
algoritma ini dapat bekerja dengan baik dalam dapat digambarkan secara matematis sebagai
menentukan arsitektur terbaik yang diterapkan berikut :

  i g i x j     i g wi , xb   oi
N N
untuk peramalan runtun waktu. Hasil-hasil
(2)
empiris berkaitan dengan perbandingan i
i 1 i 1
ketepatan ramalan antara model SLFN dengan
model-model runtun waktu yang lain
β = H *T (3)
menunjukkan bahwa tidak ada jaminan bahwa

187
Dimana : H diatas adalah hidden layer output matrix g
w = merupakan vektor dari weight yang (wi • xi+b1 ) menunjukkan output dari hidden
menghubungkan i th hidden nodes dan neuron yang berhubungan dengan input i x . β
input nodes. merupakan matrix dari output weight dan T
βi = merupakan weight vector yang matrix dari target atau output . Pada ELM
menghubungkan i th hidden dan output input weight dan hidden bias ditentukan secara
nodes. acak, maka output weight yang berhubungan
bi= threshold dari i th hidden nodes. dengan hidden layer[6].
w i x j = merupakan inner produk dari w i dan x Dalam proses testing ELM Berdasarkan input
j weight dan output weight yang didapatkan dari
Konfigurasi sederhana algoritma ELM dapat proses training, maka tahap selanjutnya adalah
dijelaskan pada Gambar 1. dibawah ini: melakukan peramalan dengan ELM. Data yang
digunakan adalah data testing sebanyak 20%
Output layer
(predict forecast) dari data. Pada tahap ini data input
dinormalisasi terlebih dahulu dengan range
Hidden layer dan rumus normalisasi yang sama dengan data
training. Secara otomatis output dari proses ini
juga harus melalui proses denormalisasi [6].
Input layer
(independent var) PERANCANGAN SISTEM
Pada tahap ini membahas proses perancangan
Gambar 1. Arsitektur ELM pada metode neural network Extreme
Learning Machine (ELM) yang meliputi
Proses Pelatihan dan Prose uji coba sehingga
mampu menghasilkan nilai peramalan yang
diinginkan [5].

Mulai
Input data parameter
Proses Autokorelasi

Proses Normalisasi
Output data
training dan Input data training,jml hidden neuron, dan
Data testing fungsi aktivasi

Pelatihan data
Output bobot input,Bias,
bobot output Input data testing,
bobot input,
Bobot bias dan bobot output
Bobot terbaik
Predict jml
pengguna

Apa MAPE <=1%,


MSE <= 1 ?
Tidak

Ya
Pengujian data

Hasil Ramalan
Gambar 1. Flowchart umum ELM
Selesai

188
Proses uji coba yang dilakukan ditunjukkan MPE : nilai rata-rata kesalahan persentase
pada Gambar 1. menentukan kinerja sistem MAPE : nilai rata-rata kesalahan persentase
yang berhubungan dengan parameter: absolut
perubahan jumlah hidden layer, perubahan
error, dan perubahan range. HASIL DAN PEMBAHASAN
(1) Kinerja Metode ELM (Extreme Learning
Ukuran Kesalahan Peramalan Machine)Berdasakan Parameter
Untuk mengevaluasi harga parameter
Untuk mengetahui metode mana yang terbaik
peramalan, digunakan ukuran kesalahan
dilakukan uji t pada selisih akurasi metode ELM
peramalan. Harga parameter peramalan yang
dan Backpropagation untuk mengetahui metode
terbaik adalah harga yang memberikan nilai
mana yang lebih baik pada tingkat error
kesalahan peramalan yang terkecil. Terdapat
tertentu berdasarkan set parameter hidden layer,
berbagai macam ukuran kesalahan yang dapat
e-poch, range dan momentum.
diklasifikasikan menjadi ukuran standar dalam
statistik dan ukuran relatif. Ukuran kesalahan Pada uji coba set data time series yang
yang termasuk ukuran standar statistik adalah atributnya dependent dimana hubungan antar
Nilai rata-rata kesalahan kuadrat (Mean atribut membutuhkan proses autokorelasi
Squared Error). Ukuran kesalahan yang [2].Data yang di proses berdasarkan waktunya
termasuk ukuran relatif adalah nilai rata-rata akan diproses berdasarkan rumus autokorelasi
kesalahan persentase (Mean Percentage Error) sehingga didapatkan time lags atau waktu yang
dan nilai rata-rata kesalahan persentase absolut bersignifikan dengan waktu yang diramalkan.
(Mean Absolute Percentage Error). Kemudian data tersebut pada waktu yang
bersignifikan tersebut akan menjadi data
Di bawah ini adalah persamaan-persamaan masukan pada proses pelatihan jaringan syaraf
yang dapat digunakan untuk menghitung tiruan.
masing-masing ukuran kesalahan (error) untuk
peramalan tersebut [6]. Rumus untuk mencari fungsi
autokorelasi :
Nilai Rata-Rata Kesalahan Kuadrat
 n 
i 1 ei2
n
 
 Yt  Y t Yt  k  Y t 
rk   
MSE = (4)
n (8)
 n

 Yt  Y t  2

Nilai Rata-Rata Kesalahan Persentase  t 1 



n
i 1
PE i
MPE = (5)
n Keterangan:
Yt =data baru atau nilai aktual pada periode t
X i  Fi rk = nilai signifikan
PEi = 100% (6)
Xi Berdasarkan proses perhitungan autokorelasi rk
Nilai Rata-Rata Kesalahan Persentase Absolut pada data yt+2 dan seterusnya, diperoleh nilai

n
PE i lags rk >= 0.4 sesuai Tabel 1., data tersebut
i 1
MAPE = (7) dijadikan input pada pelatihan JST. Dengan
n perubahan parameter hidden layer, inisialisasi
dengan : parameter pada range data [-0,4 - 0,4] dan
n : jumlah periode waktu data selang epoch 1000 diperoleh hasil nilai error
ei : kesalahan pada periode waktu i MSE dan MAPE sesuai Tabel 2, 3.
Xi : data pada periode waktu i
Fi : ramalan untuk periode waktu i
MSE : nilai rata-rata kesalahan kuadrat
PEi : kesalahan persentase pada periode i

189
Tabel 1. Data proses perhitungan Autokorelasi (2) Kineja metode ELM Berdasarkan
Perubahan Iterasi
Lags signifikan Lags signifikan
Pada uji coba menggunakan metode ELM dan
r(0,1) 0,1451 r(-0,1) 0,0509
Backpropagation, Uji coba data dilakukan 5
r(0.2) 0,0845 r(-0,2) 0,0438 run. Pada uji metode ELM parameter ditentukan
r(0,3) 0,0025 R(-0,3) 0,0366 berdasarkan perubahan Epoch, inisialisasi
r(0,4) 0,9711 r(-0,4) 0,0295 parameter pada range [-0,4 - 0,4], hidden layer
r(0,5) 0,9990 r(-0,5) -0,2476 4 dan epoch kelipatan 10, selanjutnya hasilnya
didapatkan nilai akurasi MSE dan MAPE sesuai
tabel 4,5.
Tabel 2. Hasil uji coba perubahan hidden
dengan metode ELM Tabel 4. Hasil uji coba perubahan Epoch Pada
Hidden ELM
Range E-poch MSE MAPE Hidden E-
Layer Range MSE MAPE
-0,4 – 0,4 4 1000 3,505 0,6538 Layer poch
-0,4 – 0,4 8 1000 2,470 0,5325 -0,4–0,4 4 10 2,0606 0,6358
-0,4 – 0,4 12 1000 1,995 0,4342 -0,4–0,4 4 100 2,9031 0,5782
-0,4 – 0,4 16 1000 3,705 0,6873 -0,4–0,4 4 1000 1,6044 0,3377
-0,4 – 0,4 20 1000 2,673 0,4978 -0,4–0,4 4 3000 1,2603 0,6695
-0,4–0,4 4 5000 2,6602 0,5051

Tabel 3. Hasil Uji coba perubahan hidden Tabel 5. Hasil uji coba perubahan Epoch
dengan metode Backproppagation dengan metode BP
Momen- Hidden E- Momen- Hidden E-
MSE MAPE MSE MAPE
tum Layer poch tum Layer poch
0,01 4 1000 8,3253 28,4107 0,01 4 10 3,5581 1,0376
0,01 8 1000 8,2374 28,3005 0,01 4 100 6,2873 1,2685
0,01 12 1000 6,2212 5,9233 0,01 4 1000 9,2547 1,5346
0,01 16 1000 5,6336 23,0573 0,01 4 3000 3,1933 0,9612
0,01 20 1000 4,8950 14,8739 0,01 4 5000 30,6536 1,5603

Pada tabel 2,3 menunjukkan nilai MAPE Pada Tabel 4,5 menunjukkan hasil uji coba
berdasar perubahan hidden layer ujicoba ELM dan Backpropagation untuk set perubahan
pada metode ELM dan BP, dari kelima data hidden parameter yang digunakan untuk setiap
metode adalah parameter yang menghasilkan
set perubahan hidden MAPE ELM
error minimal. Pada tabel diatas ditunjukkan
mencapai keakuratan kesalahan minimal bahwa dari 5 run, metode ELM mengungguli
saat hidden di set 12 = 0,43 % sedangkan metode Backpropagation sebanyak 5run. Hasil
MAPE BP mencapai nilai keakuratan terbaik metode ELM adalah MAPE mencapai
kesalahan pada hidden 12 = 5,9% . Dan 0,3377%pada Epoch ke -1000 sedangkan hasil
pada data set perubahan hidden MAPE ELM terbaik metode Backpropagation adalah MAPE
mencapai keakuratan kesalahan terbesar 0,9612 % pada Epoch ke- 3000. Jadi tingkat
saat hidden di set 16 = 0,68% sedangkan error yang dihasilkan lebih minimum ELM
MAPE BP mencapai nilai keakuratan berdasar parameter perubahan hidden layer.
kesalahan pada hidden 16 = 23,05%. Hal itu Dan pada perubahan Epoch MAPE ELM
disebabkan random input bobot dan hidden mencapai keakuratan kesalahan terbesar saat
Epoch 10 = 0.6358% sedangkan MAPE BP
bias di ELM mempengaruhi hasil
mencapai nilai keakuratan kesalahan terbesar
hiddennya, dan memberikan akurasi pada Epoch 5000 = 1,56 %.
kesalahan MAPE yang relatif kecil.

190
Berdasarkan hasil uji coba tersebut MAPE nilai error yang cukup baik saat sistem
yang dihasilkan metode ELM lebih baik akurasi melakukan pengujian yaitu sebesar MSE =
kesalahannya. Hal itu tersebut berpengaruh 1,99% dan MAPE = 0.4342 %. Sedangkan
terhadap BP, apabila iterasi/ Epoch semakin pada metode Backpropagation proses
kecil maka nilai error akan besar, dan feedforward dan backward menentukan
sebaliknya bila Epoch besar maka nilai error pembobotan secara random untuk bobot
akan ikut kecil. Berdasarkan uji coba metode input dan hidden bias menghasilkan nilai
ELM ditunjukkan pada Gambar 2. MAPE = 0.31, MSE = 0,96 % pada
backpropagation menunjukkan persentase
metode ELM tingkat kesalahannya lebih kecil
daripada metode backpropagation.

DAFTAR PUSTAKA
[1] Subagyo, P. Forecasting Konsep dan
Aplikasi. BPFE. Yogyakarta : 1986.
[2] Kusumadewi, Sri, Artificial Intelligence
(Teknik dan Aplikasinya), Graha Ilmu,
Yogyakarta, 2003.
[3] G.-B. Huang, Q.-Y. Zhu, C.-K. Siew,
Gambar 2. Form Proses Pelatihan ELM Extreme learning machine: a new learning
scheme of feedforward neuralnetworks, in:
Dalam hasil uji coba menunjukkan bahwa nilai Proceedings of the International Joint
keakuratan kesalahan lebih besar metode Conference on Neural Networks
Backpropagation daripada metode Extreme (IJCNN2004), Budapest, Hungary, 25–29
Learning Machine (ELM). Semakin kecil range July 2004.
bobot random, maka berpengaruh pula terhadap [4] G.-B. Huang, Q.-Y. Zhu, and C.-K. Siew,
hasil MAPEnya. “Extreme learning machine: Theory and
applications,” Neurocomputing , vol. 70,
KESIMPULAN pp.489–501, 2006.
[5] Dwi Agustina Irwin Penerapan Metode
Kesimpulan yang dapat diambil penulis dari
Extreme Learning Machine untuk
pembuatan perangkat lunak ini adalah:
Peramalan Permintaan. Sistem Informasi-
1.Pada metode ELM menghasilkan nilai
ITS Surabaya, Indonesia, 2009.
error terkecil dengan menentukan nilai [6] Dwi Prastyo, Dedy., Peramalan
bobot paling kecil, berbeda dengan Menggunakan Metode Eksponensial
algoritma gradien base secara tradisional Smoothing, Jurusan Statistika Institut
yang hasilnya mencapai kesalahan Teknologi Sepuluh November, Surabaya,
pelatihan minimum tetapi tidak 2010.
mempertimbangkan besarnya bobot.
Sehingga kinerja ELM memiliki unjuk
kerja yang lebih baik.
2.Pada proses peramalan menggunakan metode
ELM skenario terbaik dengan menggunakan
parameter perubahan hidden layer berjumlah
4 (empat), E-poch maksimal 1000,
pengaturan Range antara -0,4 – 0,4 mencapai
nilai yang terbaik. Parameter tersebut
menghasilkan jumlah iterasi yang memiliki

191

Anda mungkin juga menyukai