Jurnal MIPA
http://journal.unnes.ac.id/nju/index.php/JM
Abstract
__________________________________________________________________________________________
This research is focused on the application of Backpropagation Neural Network (BPNN) to identify lecturer
publications in realizing internationalization of UNNES with the retrieval of data based on the results of scientific
publication of lecturers at SINTA and supported by questionnaires given to lecturer respondents at FMIPA UNNES.
Furthermore, the results of the existing data were analyzed using the Matlab program and supported by literature
studies related to the NN study. Simulation studies were conducted to determine the conditions for the development
of the results of lecturers' scientific publications by using BPNN. The purpose of this study was to find out the results
of the identification of lecturer publications in realizing the internationalization of UNNES using BPNN. Based on
the results of the study and the results of the discussion in the previous section, it was concluded that the training
results and numerical analysis provided that the best BPNN model on the momentum gradient descent training
algorithm and adaptive learning rate obtained the best BPNN model with a gradient descent training algorithm
with momentum and adaptive learning rate on network architecture 9-10-1 with momentum = 0.8 and LR = 0.1 on
tansig activation function. The results of the identification of lecturer publications using BPNN and analysis of the
training above obtained that lecturer publications with works of international reputation 23.75%, 21.23% for
international journals, and 19.02% for national journals and 31.0% for publications in international proceedings.
Alamat korespondensi: ISSN 0215-9945
E-mail: walid.mat@mail.unnes.ac.id
121
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
122
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
123
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
Selama feedforward, setiap neuron input setiap neuron tersembunyi . Itu tidak perlu
( ) menerima sinyal input dan untuk menyebarkan error kembali ke lapisan
mengirimkannya ke setiap neuron tersembunyi input, tetapi digunakan untuk memperbaiki
( ). Setiap neuron tersembunyi bobot-bobot diantara lapisan tersembunyi dan
menghitung aktivasi dan mengirimkan sinyal lapisan input.
( ) ke setiap neuron output. Setiap neuron Menurut Fausett (1994) setelah semua
output ( ) menghitung aktivasi ( ) untuk faktor telah ditentukan, bobot-bobot untuk
membentuk respons jaringan untuk pola input semua lapisan disesuaikan secara bersamaan.
yang diberikan. Penyesuaian bobot (dari neuron
Selama pelatihan, setiap neuron output tersembunyi ke neuron output )
membandingkan perhitungan aktivasi didasarkan pada faktor dan aktivasi dari
dengan nilai targetnya untuk menentukan neuron tersembunyi . Penyesuaian bobot
error terkait untuk pola tersebut dengan (dari neuron input ke neuron tersembunyi
neuron itu. Berdasarkan error ini, faktor
) didasarkan pada faktor dan aktivasi
( ) dihitung. digunakan untuk
dari neuron input .
menyalurkan error pada neuron output
Fungsi aktivasi yang digunakan dalam
kembali ke semua neuron di lapisan
penelitian ini memiliki beberapa karakteristik
sebelumnya (neuron tersembunyi terhubung
penting, yaitu: harus kontinu, terdiferensiasi,
ke ). Itu juga digunakan (nanti) untuk
dan monoton tidak menurun. Selanjutnya,
memperbaiki bobot diantara lapisan output
untuk efisiensi komputasi, diharapkan
dan lapisan tersembunyi. Dengan cara yang
turunannya mudah dikomputasi. Untuk fungsi
sama, faktor ( ) dihitung untuk
aktivasi yang paling banyak digunakan, nilai
124
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
dari turunan (pada nilai tertentu dari variabel sigmoidnya akan sangat kecil. Sebaliknya,
dependen) dapat dinyatakan dalam bentuk apabila nilai bobot awal terlalu kecil, maka
nilai fungsi (pada nilai dari variabel input ke setiap lapisan tersembunyi atau
independen). Salah satu fungsi aktivasi yang lapisan output akan sangat kecil, yang akan
paling umum adalah fungsi simoid biner yang menyebabkan proses pelatihan akan berjalan
memiliki range ( ) dan disefinisikan sebagai sangat lambat. Biasanya bobot awal
(Fausett, 1994: 292-293). diinisialisasi secara acak dengan nilai antara
sampai atau sampai .
( )
1) Menurut Fauset (1994) algoritma
dengan: ( ) ( )[ ( )]. pelatihan dari BPNN mempunya sintaks
Fungsi aktivasi yang umum lainnya sebagai berikut.
adalah sigmoid bipolar yang memiliki range Langkah 0. Inisialisasi bobot (tetapkan untuk
( ) dan didefinisikan sebagai: nilai acak kecil).
Langkah 1. Selama kondisi berhenti salah,
( )
2) lakukan langkah 2-9.
dengan: ( ) [ ( )][ ( )]. Langkah 2. Untuk setiap pasang pelatihan,
lakukan langkah 3-8.
Catatan bahwa fungsi sigmoid bipolar
Feedforward:
terkait erat dengan fungsi
Langkah 3. Setiap neuron input (
( ) ) menerima sinyal input dan
3)
menyebarkan sinyal tersebut ke semua neuron
Menurut Siang (2004) fungsi sigmoid
pada lapisan atas (neuron tersembunyi).
memiliki nilai maksimum sama dengan 1. Maka
Langkah 4. Setiap neuron tersembunyi
untuk pola targetnya lebih dari 1, pola input
dan output harus terlebih dahulu ( ) menjumlahkan bobot sinyal
ditransformasi sehingga semua polanya input,
memiliki range yang sama seperti sigmoid yang
∑
dipakai. Alternatif lain adalah menggunakan 5)
fungsi aktivasi sigmoid hanya pada lapisan menerapkan fungsi aktivasi untuk
yang bukan lapisan output. Fungsi aktivasi menghitung sinyal output,
yang dipakai pada lapisan output adalah fungsi ( )
identitas dan didefinisikan sebagai. 6)
( ) dan mengirimkan sinyal tersebut ke
4) semua neuron di lapisan atas (neuron output).
Kusumadewi (2004) menyatakan bahwa Langkah 5. Setiap neuron output
salah satu fungsi aktivasi yang didefinisikan ( ) menjumlahkan bobot sinyal
pada persamaan 4 dapat digunakan dalam input,
algoritma BPNN umumnya yang akan
(
diberikan pada algoritma pelatihan BPNN. ∑
7)
Bentuk data (terutama nilai target) merupakan
faktor penting dalam memilih fungsi yang dan menerapkan fungsi aktivasi untuk
sesuai. Pemilihan bobot awal juga sangat menghitung sinyal output,
memengaruhi NN dalam mencapai minimum ( ) (
global atau lokal terhadap nilai error, serta 8)
cepat tidaknya proses pelatihan menuju Backpropagation of error:
kekonvergenan. Apabila nilai bobot awal Langkah 6. Setiap neuron output
terlalu besar, maka input ke setiap lapisan ( ) menerima sebuah pola
tersembunyi atau lapisan output akan jatuh target yang sesuai dengan pola input pelatihan,
pada daerah dimana turunan fungsi hitung informasi error,
125
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
126
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
lag yang signifikan pada plot PACF dari masing- Perintah traingdx menunjukkan algoritma
masing variabel. Plot PACF menunjukkan lag- pelatihan yang digunakan.
lag yang signifikan, yaitu lag 2, lag 5, lag 9, lag 5. Denormalisasi Data
10, lag 11, sehingga jaringan yang akan Setelah proses pelatihan selesai
dibangun memiliki 9 input, yaitu , , dilakukan, maka hasil output jaringan yang
, , dengan target atau dapat ternormalisasi dikembalikan lagi seperti
dikatakan bahwa semula yang disebut dengan denormalisasi
2. Pembagian Data data. Perintah untuk mendenormalisasi output
Pembagian data dilakukan dengan pada tahap pelatihan sebagai berikut.
membagi data menjadi dua bagian, yaitu bagian a = mapstd('reverse',an,ts)
pertama untuk data latih (training) yang Perintah untuk mendenormalisasi
digunakan pada tahap pelatihan jaringan dan output pada tahap pengujian sebagai berikut.
bagian kedua untuk data uji (testing) yang anew = mapstd('reverse',anewn,ts)
digunakan pada tahap pengujian. Komposisi 6. Tahap Penentuan Model
pembagian data yang akan digunakan untuk Tahap penentuan model terdiri dari
membangun jaringan BPNN untuk identifikasi penentuan model terbaik dan uji kesesuaian
publikasi dosen sebesar 80% untuk data latih model. Setelah dilakukan pelatihan jaringan
dan 20% untuk data uji. akan terbentuk berbagai macam model
3. Normalisasi Data jaringan yang telah dihasilkan melalui tahap
Data input dan target pada data latih pembentukan model. Model terbaik terbentuk
harus dinormalisasikan terlebih dahulu. berdasarkan trial and error terhadap beberapa
Perintah untuk menormalisasi data input dan macam arsitektur jaringan. Model terbaik
target pada data latih sebagai berikut. adalah model dengan MSE dan MAPE terkecil
[pn,ps] = mapstd(inputlatih) dengan jaringan paling sederhana. Berikut
[tn,ts] = mapstd(targetlatih) adalah hasil pelatihan jaringan BPNN dengan
4. Tahap Pembentukan Model menggunakan algoritma pelatihan gradient
Perintah untuk membangun jaringan descent dengan momentum dan adaptive
BPNN untuk peramalan penjualan semen, learning rate dan algoritma pelatihan
yaitu: net = newff(minmax(pn), [n 1], {'tansig' Levenberg-Marquardt.
'purelin'}, 'traingdx'); Pelatihan jaringan menggunakan
Perintah newff digunakan untuk algoritma pelatihan gradient descent dengan
membangun jaringan BPNN dengan n neuron momentum dan adaptive learning rate
pada satu lapisan tersembunyi dan satu neuron (traingdx). Berikut akan ditampilkan hasil
pada satu lapisan output. Perintah {'tansig' pelatihan pada BPNN berdasarkan model
'purelin'} menunjukkan fungsi aktivasi yang terbaik dari masing-masing momentum dan
digunakan dengan tansig pada lapisan LR.
tersembunyi dan purelin pada lapisan output.
Berdasarkan Tabel 1 dapat dilihat bahwa dan LR = 0,01 diperoleh pada arsitektur
model terbaik BPNN pada algoritma pelatihan jaringan 9-2-1 pada fungsi aktivasi logsig
gradient descent dengan momentum dan dengan MSE dan MAPE pengujian masing-
adaptive learning rate dengan momentum = 0,1 masing sebesar 4,3113e+10 dan 7,6157%.
127
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
Berdasarkan Tabel 2 dapat dilihat bahwa dan LR = 0,02 diperoleh pada arsitektur
model terbaik BPNN pada algoritma pelatihan jaringan 9-2-1 pada fungsi aktivasi logsig
gradient descent dengan momentum dan dengan MSE dan MAPE pengujian masing-
adaptive learning rate dengan momentum = 0,1 masing sebesar 5,3712e+10 dan 8,5527%.
Berdasarkan Tabel 3 dapat dilihat bahwa dan LR = 0,03 diperoleh pada arsitektur
model terbaik BPNN pada algoritma pelatihan jaringan 9-2-1 pada fungsi aktivasi logsig
gradient descent dengan momentum dan dengan MSE dan MAPE pengujian masing-
adaptive learning rate dengan momentum = 0,1 masing sebesar 5,6229e+10 dan 8,5507%.
Berdasarkan Tabel 4 dapat dilihat bahwa dan MAPE pengujian masing-masing sebesar
model terbaik BPNN pada algoritma pelatihan 6,0151e+10 dan 9,1318%.
gradient descent dengan momentum dan Berikut akan ditampilkan hasil pelatihan
adaptive learning rate dengan momentum = 0,1 pada BPNN berdasarkan model terbaik dari
dan LR = 0,1 diperoleh pada arsitektur jaringan masing-masing Mu.
9-10-1 pada fungsi aktivasi logsig dengan MSE
128
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
Berdasarkan Tabel 6 dapat dilihat bahwa fungsi aktivasi tansig dengan MSE dan MAPE
model terbaik BPNN pada algoritma pelatihan pengujian masing-masing sebesar 4,7038e+10
Levenberg-Marquardt dengan Mu = 0,002 dan 8,1636%.
diperoleh pada arsitektur jaringan 9-20-1 pada
Berdasarkan Tabel 7 dapat dilihat bahwa momentum dan adaptive learning rate pada
model terbaik BPNN pada algoritma pelatihan arsitektur jaringan 9-10-1 dengan momentum
Levenberg-Marquardt dengan Mu = 0,003 = 0,8 dan LR = 0,1 pada fungsi aktivasi tansig.
diperoleh pada arsitektur jaringan 9-20-1 pada Model BPNN 9-10-1 memperoleh hasil epoch
fungsi aktivasi tansig dengan MSE dan MAPE ke 5000 yang memberikan nilai MSE dan MAPE
pengujian masing-masing sebesar 9,2593e+10 pengujian masing-masing sebesar 3,6069e+10
dan 11,6191%. dan 6,7670%. Iterasi berhenti pada epoch ke
Hasil pelatihan dan analisis numerik 5000 meskipun target error yang diinginkan
memberikan bahwa model terbaik BPNN pada (Goal = 0,001) belum tercapai. Model ini pada
algoritma pelatihan gradient descent dengan epoch ke 5000 telah mencapai konvergen
momentum dan adaptive learning rate dengan performance = 0,00784. Proses
diperoleh model BPNN terbaik dengan pelatihan pada setiap epoch ditunjukkan pada
algoritma pelatihan gradient descent dengan Gambar 2
129
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
( ) ( ) ( )
( )
( ) ( ) ( )
( ) ( )
( ) ( ) ( ) ( )
( )
130
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
( ) ( )
( )
( ) ( )
( ) ( )
∑ ( )
∑ ( )
( )
( )
( ) ( )
(( ) ) ( ) ( )
131
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
Tabel 9. Hasil identifikasi pada publikasi dosen karya publikasi dalam prosiding internasional
FMIPA UNNES sebanyak 31,0%.
Sedangkan saran yang diberikan dalam
Persentase
Variabel penelitian, bisa dikembangkan dengan
(dalam %)
menggunakan fungsi aktivasi dan bobot awal
X1 23,75 bias yang berbeda sehingga akan memberikan
X2 21,23 nilai dan hasil yang berbeda.
X3 19,02
X4 31,0 DAFTAR PUSTAKA
132
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133
133