Anda di halaman 1dari 13

Jurnal MIPA 41 (2) (2018): 121-133

Jurnal MIPA

http://journal.unnes.ac.id/nju/index.php/JM

Identifikasi Publikasi Dosen dalam Mewujudkan Internasionalisasi


Universitas Negeri Semarang Menggunakan Neural Network

Walid, Y L Sukestiyarno, Sunarmi

Jurusan Matematika, FMIPA, Universitas Negeri Semarang, Indonesia

Info Artikel Abstrak


_____________________________ __________________________________________________________________________________________
Sejarah Artikel: Penelitian ini difokuskan pada penerapan Backpropagation Neural Network (BPNN) untuk melakukan
Diterima 11 August 2018 identifikasi publikasi dosen dalam mewujudkan internasionalisasi UNNES dengan pengambilan datanya
Disetujui 23 September 2018 didasarkan pada penelurusuran hasil publikasi ilmiah dosen di SINTA dan didukung dengan kuesioner yang
diberikan pada responden dosen di FMIPA UNNES. Selanjutnya hasil data yang ada dianalisis dengan
Dipublikasikan 1 October 2018
menggunakan program Matlab dan didukung dengan studi literatur terkait kajian NN. Studi simulasi dilakukan
_____________________________ untuk mengetahui kondisi perkembangan hasil publikasi ilmiah dosen dengan menggunakan BPNN. Tujuan
Keywords: penelitian ini adalah untuk mengetahui hasil identifikasi publikasi dosen dalam mewujudkan internasionalisasi
backpropagation neural UNNES menggunakan BPNN. Berdasarkan hasil penelitian dan hasil pembahasan di bagian sebelumnya, maka
disimpulkan bahwa Hasil pelatihan dan analisis numerik memberikan bahwa model terbaik BPNN pada
network, internasionalisasi,
algoritma pelatihan gradient descent dengan momentum dan adaptive learning rate diperoleh model BPNN
sinta
terbaik dengan algoritma pelatihan gradient descent dengan momentum dan adaptive learning rate pada
_____________________________________ arsitektur jaringan 9-10-1 dengan momentum = 0,8 dan LR = 0,1 pada fungsi aktivasi tansig. Hasil identifikasi
publikasi dosen menggunakan BPNN dan analisis terhadap pelatihan di atas diperoleh bahwa publikasi dosen
dengan karya jurnal bereputasi internasional sebanyak 23,75%, untuk jurnal internasional sebanyak 21,23%,
dan jurnal nasional terkareditasi sebesar 19,02% dan karya publikasi dalam prosiding internasional sebanyak
31,0%.

Abstract
__________________________________________________________________________________________
This research is focused on the application of Backpropagation Neural Network (BPNN) to identify lecturer
publications in realizing internationalization of UNNES with the retrieval of data based on the results of scientific
publication of lecturers at SINTA and supported by questionnaires given to lecturer respondents at FMIPA UNNES.
Furthermore, the results of the existing data were analyzed using the Matlab program and supported by literature
studies related to the NN study. Simulation studies were conducted to determine the conditions for the development
of the results of lecturers' scientific publications by using BPNN. The purpose of this study was to find out the results
of the identification of lecturer publications in realizing the internationalization of UNNES using BPNN. Based on
the results of the study and the results of the discussion in the previous section, it was concluded that the training
results and numerical analysis provided that the best BPNN model on the momentum gradient descent training
algorithm and adaptive learning rate obtained the best BPNN model with a gradient descent training algorithm
with momentum and adaptive learning rate on network architecture 9-10-1 with momentum = 0.8 and LR = 0.1 on
tansig activation function. The results of the identification of lecturer publications using BPNN and analysis of the
training above obtained that lecturer publications with works of international reputation 23.75%, 21.23% for
international journals, and 19.02% for national journals and 31.0% for publications in international proceedings.

© 2018 Universitas Negeri Semarang


Alamat korespondensi: ISSN 0215-9945
E-mail: walid.mat@mail.unnes.ac.id

121
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

PENDAHULUAN bahwa BPNN efektif untuk meramalkan data


yang baru.
Perkembangan ilmu pengetahuan begitu Penelitian yang sudah dilakukan dengan
dinamis dan kompleks, salah satunya menggunakan model RNN antara lain Walid et.
perkembangan di bidangan Jaringan saraf al (2018) tentang Analisis Produktivitas
tiuran (JSN). JSN merupakan model Kinerja Dosen dan Tenaga Kependidikan dalam
nonparametrik yang mempunyai bentuk Mewujudkan Tahun Reputasi Universitas
fungsional yang fleksibel, mengandung Negeri Semarang (UNNES) Menggunakan
beberapa parameter yang tidak dapat Jaringan Saraf Tiruan dengan menggunakan
diinterpretasikan seperti pada model RNN. Produktivitas di lingkungan Universitas
parametrik. Dalam penerapannya, JSN Negeri Semarang (UNNES) merupakan suatu
mengandung sejumlah parameter (weight) interkasi terpadu secara serasi dari tiga faktor
yang terbatas. Bagaimana mendapatkan model esensial, yaitu optimalisasi kemampuan,
JSN yang sesuai, yaitu bagaimana menentukan manajemen dan sumber daya yang dimiliki
kombinasi yang tepat antara jumlah variabel oleh UNNES. Pemberian motivasi kepada
input dan jumlah unit pada hidden layer (yang seluruh civitas akademikia UNNES sangatlah
berimplikasi pada jumlah parameter yang berpengaruh terhadap jalannya kemajuan
optimal), merupakan topik sentral dalam UNNES dalam mewujudkan tahun reputasi
beberapa literatur JSN yang telah banyak yang dicanangkan pada tahun 2017 ini oleh
dibahas pada banyak artikel dan banyak buku Walid et. al (2017).
seperti pada Bishop (1995), Ripley (1996), Menururt Hardianto et.al (BPNN pada
Beale & Finlay (1992), Fine (1999), Haykin dasarnya adalah fungsi pemetaan dari neuron
(1999). input ke neuron output tanpa mengetahui
Penelitian lain telah berhasil korelasi antar data. BPNN adalah model NN
menerapkan sub peta intermittency untuk yang diakui secara kritis karena kapasitas
pemodelan lalu lintas internet, yang pemodelan non parametrik dan non liniernya,
merupakan contoh yang berhubungan namun kemampuan beradaptasi yang kuat, dan
berbeda dengan fenomena yang menunjukan kemampuan komputasi paralel. Standar BPNN
long memory dan distribusi marginal dapat terdiri dari lapisan input, satu atau lebih
dilihat pada Swanson & White H (1995). lapisan tersembunyi, dan lapisan output.
Dewasa ini banyak penelitian yang Secara umum, BPNN dengan satu lapisan
mengunakan model peramalan dengan tersembunyi dapat menghasilkan akurasi yang
menggunakan neural network pada berbagai diinginkan untuk aplikasi peramalan runtun
bidang, antara lain di bidang pelabelan, waktu (Wang et.al, 2018). BPNN adalah suatu
pembelajaran konteks bahasa dan bidang kelas dari FFNN dengan aturan pembelajaran
kelistrikan (lihat pada chen (1995), Husen terawasi. Proses pembelajaran terawasi adalah
(2001), Taylor (2003), Taylor et. al (2006) dan proses membandingkan setiap perkiraan
Ristiana (2008). Penelitian berkaitan dengan jaringan dengan jawaban benar yang diketahui
pengembangan jaringan saraf tiruan telah dan menyesuaikan berat berdasarkan error
cukup banyak dilakukan oleh ahli dibidang ini, perkiraan yang dihasilkan untuk
antara lain hasil penelitian yang dilakukan oleh meminimalkan fungsi error. Pendekatan BPNN
Walid et. al (2015) tentang peramalan memberikan alternatif kompetitif untuk
menggunakan model jaringan saraf tiruan pada prosedur yang ada untuk pembelajaran serta
data berpola long memory dengan konsentrasi peramalan data independen.
ada penggunaan beban konsumsi listrik PLN di Tahun 2018 merupakan tahun
Jawa dan Bali. Menurut Ren et. al (2013) telah internasionalisasi bagi Universitas Negeri
mengembangkan penggunaan terkait dengan Semarang (UNNES) untuk dapat sejajar dengan
trend data dari data historis dan menyatakan perguruan tinggi lainnya di nasional ataupun
internasional, salah satunya dalam bidang

122
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

penelitian dan pengabdian. Sebagai indikator Metode Analisis Data


keberhasilan program itu adalah adalah Metode analisis data yang digunakan
meningkatnya kualitas dan kuantitas publikasi dalam penelitian ini adalah metode analisis
ilmiah Dosen, baik di tingkat nasional maupun data didasarkan pada kajian teori, kajian
internasional. Oleh karena itu, upaya untuk komputasi dan kajian terapan. Berdasarkan
meningkatkan publikasi dosen-dosen, fokus penelitian tersebut, tahapan penelitian
terutama untuk publikasi ilmiah tingkat ini dijabarkan secara detail dalam pemaparan
internasional menjadi salah satu agenda berikut. Kajian Teori dengan studi literature
penting. Selain itu, juga akan mendorong dan kajian teoritis mendalam dilakukan untuk
mahasiswa-mahasiswa, terutama mahasiswa memperoleh kajian identifikasi data yang
kelas internasional untuk mengikuti berbagai memuat model jaringan syaraf tiruan,
kegiatan yang berskala nasional dan produktivitas dosen dalam mempublikasikan
internasional. jurnal baik ditingkat nasional maupun
Berdasarkan uraian di atas, fokus internasional. Fokus variabel ini yang menjadi
permasalahan dalam penelitian ini adalah objek dalam penelitian ini. Selain itu untuk
Bagaimana model identifikasi publikasi dosen memperoleh kajian pemetaan terhadap
dalam mewujudkan internasionalisasi UNNES penggunaaan aplikasi model jaringan saraf
menggunakan BPNN?. Tujuan penelitian ini tiruan yang berkembanga saat ini diaji secara
adalah untuk mengetahui hasil identifikasi mendalam sebagai dasar penggunaan
publikasi dosen dalam mewujudkan keilmuaan untuk menganalisis kondisi yang
internasionalisasi UNNES menggunakan BPNN. sebenarnya. Kajian Komputasi dilakukan untuk
memperoleh hasil analisis dengan
METODE menggunakan jaringan syaraf tiruan dan
komputasional tahap-tahap identifikasi data
Metode penelitian ini dibagi menjadi yang memuat penentuan variabel, penyusunan
beberapa tahapan penelitian, secara lengkap fokus pada pemiliahan indikator disetiap
dijabarkan sebagai berikut. variabel yang menjadi objek pilihan data pada
penelitian ini. Analisis selanjutnya dilakukan
Metode Pengumpulan Data simulasi dan analisis komputasional model
Pengumpulan data dilakukan dengan jaringan syaraf tiruan dengan menggunakan
menggunakan metode penelusuran hasil model BPNN dengan menggunakan
publikasi dosen di SINTA terkait dengan simulasinya menggunakan program MATLAB
publikasi Dosen, populasi diambil dosen di dan R.
FMIPA UNNES, dengan sampel diambil secara
acak dosen dibeberapa jurusan yang ada di HASIL DAN PEMBAHASAN
FMIPA. Berdasarkan data ini dilakukan analisis
sintesi terkait dengan identifikasi publikasi Penelitian ini menggunakan model BPNN
dengan menggunakan neural network dengan yang memiliki beberapa neuron yang ada
model BPNN. Variabel-variabel penelitian ini dalam satu atau lebih lapisan tersembunyi.
meliputi variabel tentang pbulikasi dosen pada Gambar 1 adalah arsitektur BPNN dengan
jurnal bereputasi internasional dinyatakan input (ditambah sebuah bias), sebuah lapisan
dengan X1, jurnal internasional dinyatakan tersembunyi yang terdiri dari neuron
dengan X2, jurnal nasional terkareditasi (ditambah sebuah bias), serta buah neuron
dinyatakan dengan X3 dan karya publikasi output. merupakan bobot garis dari neuron
dalam prosiding internasional dinyatakan input ke neuron lapisan tersembunyi (
dengan X4. merupakan bobot garis yang menghubungkan
bias di neuron input ke neuron lapisan
tersembunyi ). merupakan bobot dari

123
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

neuron lapisan tersembunyi ke neuron lapisan tersembunyi ke neuron output )


output ( merupakan bobot dari bias di (Siang, 2004: 98).

Gambar 1. Arsitektur Backpropagation Neural Network

Selama feedforward, setiap neuron input setiap neuron tersembunyi . Itu tidak perlu
( ) menerima sinyal input dan untuk menyebarkan error kembali ke lapisan
mengirimkannya ke setiap neuron tersembunyi input, tetapi digunakan untuk memperbaiki
( ). Setiap neuron tersembunyi bobot-bobot diantara lapisan tersembunyi dan
menghitung aktivasi dan mengirimkan sinyal lapisan input.
( ) ke setiap neuron output. Setiap neuron Menurut Fausett (1994) setelah semua
output ( ) menghitung aktivasi ( ) untuk faktor telah ditentukan, bobot-bobot untuk
membentuk respons jaringan untuk pola input semua lapisan disesuaikan secara bersamaan.
yang diberikan. Penyesuaian bobot (dari neuron
Selama pelatihan, setiap neuron output tersembunyi ke neuron output )
membandingkan perhitungan aktivasi didasarkan pada faktor dan aktivasi dari
dengan nilai targetnya untuk menentukan neuron tersembunyi . Penyesuaian bobot
error terkait untuk pola tersebut dengan (dari neuron input ke neuron tersembunyi
neuron itu. Berdasarkan error ini, faktor
) didasarkan pada faktor dan aktivasi
( ) dihitung. digunakan untuk
dari neuron input .
menyalurkan error pada neuron output
Fungsi aktivasi yang digunakan dalam
kembali ke semua neuron di lapisan
penelitian ini memiliki beberapa karakteristik
sebelumnya (neuron tersembunyi terhubung
penting, yaitu: harus kontinu, terdiferensiasi,
ke ). Itu juga digunakan (nanti) untuk
dan monoton tidak menurun. Selanjutnya,
memperbaiki bobot diantara lapisan output
untuk efisiensi komputasi, diharapkan
dan lapisan tersembunyi. Dengan cara yang
turunannya mudah dikomputasi. Untuk fungsi
sama, faktor ( ) dihitung untuk
aktivasi yang paling banyak digunakan, nilai

124
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

dari turunan (pada nilai tertentu dari variabel sigmoidnya akan sangat kecil. Sebaliknya,
dependen) dapat dinyatakan dalam bentuk apabila nilai bobot awal terlalu kecil, maka
nilai fungsi (pada nilai dari variabel input ke setiap lapisan tersembunyi atau
independen). Salah satu fungsi aktivasi yang lapisan output akan sangat kecil, yang akan
paling umum adalah fungsi simoid biner yang menyebabkan proses pelatihan akan berjalan
memiliki range ( ) dan disefinisikan sebagai sangat lambat. Biasanya bobot awal
(Fausett, 1994: 292-293). diinisialisasi secara acak dengan nilai antara
sampai atau sampai .
( )
1) Menurut Fauset (1994) algoritma
dengan: ( ) ( )[ ( )]. pelatihan dari BPNN mempunya sintaks
Fungsi aktivasi yang umum lainnya sebagai berikut.
adalah sigmoid bipolar yang memiliki range Langkah 0. Inisialisasi bobot (tetapkan untuk
( ) dan didefinisikan sebagai: nilai acak kecil).
Langkah 1. Selama kondisi berhenti salah,
( )
2) lakukan langkah 2-9.
dengan: ( ) [ ( )][ ( )]. Langkah 2. Untuk setiap pasang pelatihan,
lakukan langkah 3-8.
Catatan bahwa fungsi sigmoid bipolar
Feedforward:
terkait erat dengan fungsi
Langkah 3. Setiap neuron input (
( ) ) menerima sinyal input dan
3)
menyebarkan sinyal tersebut ke semua neuron
Menurut Siang (2004) fungsi sigmoid
pada lapisan atas (neuron tersembunyi).
memiliki nilai maksimum sama dengan 1. Maka
Langkah 4. Setiap neuron tersembunyi
untuk pola targetnya lebih dari 1, pola input
dan output harus terlebih dahulu ( ) menjumlahkan bobot sinyal
ditransformasi sehingga semua polanya input,
memiliki range yang sama seperti sigmoid yang

dipakai. Alternatif lain adalah menggunakan 5)
fungsi aktivasi sigmoid hanya pada lapisan menerapkan fungsi aktivasi untuk
yang bukan lapisan output. Fungsi aktivasi menghitung sinyal output,
yang dipakai pada lapisan output adalah fungsi ( )
identitas dan didefinisikan sebagai. 6)
( ) dan mengirimkan sinyal tersebut ke
4) semua neuron di lapisan atas (neuron output).
Kusumadewi (2004) menyatakan bahwa Langkah 5. Setiap neuron output
salah satu fungsi aktivasi yang didefinisikan ( ) menjumlahkan bobot sinyal
pada persamaan 4 dapat digunakan dalam input,
algoritma BPNN umumnya yang akan
(
diberikan pada algoritma pelatihan BPNN. ∑
7)
Bentuk data (terutama nilai target) merupakan
faktor penting dalam memilih fungsi yang dan menerapkan fungsi aktivasi untuk
sesuai. Pemilihan bobot awal juga sangat menghitung sinyal output,
memengaruhi NN dalam mencapai minimum ( ) (
global atau lokal terhadap nilai error, serta 8)
cepat tidaknya proses pelatihan menuju Backpropagation of error:
kekonvergenan. Apabila nilai bobot awal Langkah 6. Setiap neuron output
terlalu besar, maka input ke setiap lapisan ( ) menerima sebuah pola
tersembunyi atau lapisan output akan jatuh target yang sesuai dengan pola input pelatihan,
pada daerah dimana turunan fungsi hitung informasi error,

125
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

( ) ( ) ( : sinyal input yang diterima oleh neuron


9) tersembunyi dari neuron input
hitung koreksi bobot (yang nanti : bobot bias pada lapisan tersembunyi,
digunakan untuk memperbaiki )
(
: bobot dari neuron input ke- menuju
10)
neuron tersembunyi ke-
hitung koreksi bias (yang nanti
: sinyal output yang telah diaktivasi pada
digunakan untuk memperbaiki ), neuron tersembunyi
( : sinyal input yang diterima oleh neuron
11) output dari neuron tersembunyi
dan mengirimkan ke neuron pada : bobot dari neuron tersembunyi ke-
lapisan bawah. menuju neuron output ke-
Langkah 7. Setiap neuron tersembunyi : bobot bias pada lapisan output,
( ) menjumlahkan input delta
dari neuron pada lapisan atas (lapisan output). : sinyal output yang telah diaktivasi pada
( neuron output

12) : target yang ingin dicapai
Kalikan dengan turunan dari fungsi : laju percepatan
aktivasi untuk menghitung informasi error, Bentuk umum model BPNN secara
( ) ( sistematis dapat dituliskan sebagai berikut.
13)
(∑ ( ∑ )
hitung koreksi bobot (yang nanti
(
digunakan untuk memperbaiki ),
20)
(
)
14)
dan hitung koreksi bias (yang nanti
dengan:
digunakan untuk memperbaiki ),
: variabel output
(
: bobot dari neuron tersembunyi ke-
15)
menuju neuron output ke-
Memperbaiki bobot dan bias:
: bobot bias pada lapisan tersembunyi,
Langkah 8. Setiap neuron output
( ) memperbaiki bias dan bobot
: neuron input ke- ,
( ):
: bobot dari neuron input ke- menuju
( ) ( ) (
neuron tersembunyi ke-
16)
: bobot bias pada lapisan output,
( ) ( ) (
17)
Setiap neuron tersembunyi (
Pengembangan analisis sintesis yang
) memperbaiki bias dan bobot
dihasilkan menggunakan prosedur jaringan
( ): Backpropagation Neural Network (BPNN)
( ) ( ) ( beserta langkah-langkah pemodelannya
18) disajikan dalam beberapa langkah berikut.
( ) ( ) ( 1. Penentuan Input dan Target Jaringan
19) Prosedur awal dalam menggunakan
Langkah 9. Kondisi tes berhenti. BPNN adalah penentuan input dan target
Keterangan: jaringan. Penentuan input dan target jaringan
dalam skripsi ini dilakukan dengan melihat lag-

126
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

lag yang signifikan pada plot PACF dari masing- Perintah traingdx menunjukkan algoritma
masing variabel. Plot PACF menunjukkan lag- pelatihan yang digunakan.
lag yang signifikan, yaitu lag 2, lag 5, lag 9, lag 5. Denormalisasi Data
10, lag 11, sehingga jaringan yang akan Setelah proses pelatihan selesai
dibangun memiliki 9 input, yaitu , , dilakukan, maka hasil output jaringan yang
, , dengan target atau dapat ternormalisasi dikembalikan lagi seperti
dikatakan bahwa semula yang disebut dengan denormalisasi
2. Pembagian Data data. Perintah untuk mendenormalisasi output
Pembagian data dilakukan dengan pada tahap pelatihan sebagai berikut.
membagi data menjadi dua bagian, yaitu bagian a = mapstd('reverse',an,ts)
pertama untuk data latih (training) yang Perintah untuk mendenormalisasi
digunakan pada tahap pelatihan jaringan dan output pada tahap pengujian sebagai berikut.
bagian kedua untuk data uji (testing) yang anew = mapstd('reverse',anewn,ts)
digunakan pada tahap pengujian. Komposisi 6. Tahap Penentuan Model
pembagian data yang akan digunakan untuk Tahap penentuan model terdiri dari
membangun jaringan BPNN untuk identifikasi penentuan model terbaik dan uji kesesuaian
publikasi dosen sebesar 80% untuk data latih model. Setelah dilakukan pelatihan jaringan
dan 20% untuk data uji. akan terbentuk berbagai macam model
3. Normalisasi Data jaringan yang telah dihasilkan melalui tahap
Data input dan target pada data latih pembentukan model. Model terbaik terbentuk
harus dinormalisasikan terlebih dahulu. berdasarkan trial and error terhadap beberapa
Perintah untuk menormalisasi data input dan macam arsitektur jaringan. Model terbaik
target pada data latih sebagai berikut. adalah model dengan MSE dan MAPE terkecil
[pn,ps] = mapstd(inputlatih) dengan jaringan paling sederhana. Berikut
[tn,ts] = mapstd(targetlatih) adalah hasil pelatihan jaringan BPNN dengan
4. Tahap Pembentukan Model menggunakan algoritma pelatihan gradient
Perintah untuk membangun jaringan descent dengan momentum dan adaptive
BPNN untuk peramalan penjualan semen, learning rate dan algoritma pelatihan
yaitu: net = newff(minmax(pn), [n 1], {'tansig' Levenberg-Marquardt.
'purelin'}, 'traingdx'); Pelatihan jaringan menggunakan
Perintah newff digunakan untuk algoritma pelatihan gradient descent dengan
membangun jaringan BPNN dengan n neuron momentum dan adaptive learning rate
pada satu lapisan tersembunyi dan satu neuron (traingdx). Berikut akan ditampilkan hasil
pada satu lapisan output. Perintah {'tansig' pelatihan pada BPNN berdasarkan model
'purelin'} menunjukkan fungsi aktivasi yang terbaik dari masing-masing momentum dan
digunakan dengan tansig pada lapisan LR.
tersembunyi dan purelin pada lapisan output.

Tabel 1. Hasil Pelatihan BPNN dengan Momentum = 0,1 dan LR = 0,01


Pelatihan Pengujian
Arsitektur
( ) Epoch Perf MAPE MAPE
Jaringan MSE R MSE R
(%) (%)
9-2-1 Logsig 5000 0,0288 4,1452e+09 2,8196 0,98537 4,3113e+10 7,6157 0,82283

Berdasarkan Tabel 1 dapat dilihat bahwa dan LR = 0,01 diperoleh pada arsitektur
model terbaik BPNN pada algoritma pelatihan jaringan 9-2-1 pada fungsi aktivasi logsig
gradient descent dengan momentum dan dengan MSE dan MAPE pengujian masing-
adaptive learning rate dengan momentum = 0,1 masing sebesar 4,3113e+10 dan 7,6157%.

127
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

Tabel 2. Hasil Pelatihan BPNN dengan Momentum = 0,1 dan LR = 0,02


Pelatihan Pengujian
Arsitektur
( ) Epoch Perf MAPE MAPE
Jaringan MSE R MSE R
(%) (%)
9-2-1 Logsig 5000 0,02 4,1972e 2,9810 0,985 5,3712e 8,5527 0,826
92 +09 17 +10 81

Berdasarkan Tabel 2 dapat dilihat bahwa dan LR = 0,02 diperoleh pada arsitektur
model terbaik BPNN pada algoritma pelatihan jaringan 9-2-1 pada fungsi aktivasi logsig
gradient descent dengan momentum dan dengan MSE dan MAPE pengujian masing-
adaptive learning rate dengan momentum = 0,1 masing sebesar 5,3712e+10 dan 8,5527%.

Tabel 3. Hasil Pelatihan BPNN dengan Momentum = 0,1 dan LR = 0,03


Pelatihan Pengujian
Arsitektur
( ) Epoch Perf MAPE MAPE
Jaringan MSE R MSE R
(%) (%)
9-2-1 Logsig 5000 0,02 3,9427e 2,7371 0,986 5,6229e 8,5507 0,778
74 +09 1 +10 91

Berdasarkan Tabel 3 dapat dilihat bahwa dan LR = 0,03 diperoleh pada arsitektur
model terbaik BPNN pada algoritma pelatihan jaringan 9-2-1 pada fungsi aktivasi logsig
gradient descent dengan momentum dan dengan MSE dan MAPE pengujian masing-
adaptive learning rate dengan momentum = 0,1 masing sebesar 5,6229e+10 dan 8,5507%.

Tabel 4. Hasil Pelatihan BPNN dengan Momentum = 0,1 dan LR = 0,1


Pelatihan Pengujian
Arsitektur
( ) Epoch Perf MAPE MAPE
Jaringan MSE R MSE R
(%) (%)
9-10-1 Logsig 5000 0,04 6,1582e 3,5523 0,978 6,0151e 9,1318 0,796
29 +09 17 +10 64

Berdasarkan Tabel 4 dapat dilihat bahwa dan MAPE pengujian masing-masing sebesar
model terbaik BPNN pada algoritma pelatihan 6,0151e+10 dan 9,1318%.
gradient descent dengan momentum dan Berikut akan ditampilkan hasil pelatihan
adaptive learning rate dengan momentum = 0,1 pada BPNN berdasarkan model terbaik dari
dan LR = 0,1 diperoleh pada arsitektur jaringan masing-masing Mu.
9-10-1 pada fungsi aktivasi logsig dengan MSE

Tabel 5. Hasil Pelatihan BPNN dengan Mu = 0,001


Pelatihan Pengujian
Arsitektur
( ) Epoch Perf MAPE MAPE
Jaringan MSE R MSE R
(%) (%)
9-10-1 Logsig 12 0,00 1,0884e 0,4077 0,999 1,0762e 11,6650 0,701
0757 +08 81 +11 41

Berdasarkan Tabel 5 dapat dilihat bahwa Levenberg-Marquardt dengan Mu = 0,001


model terbaik BPNN pada algoritma pelatihan diperoleh pada arsitektur jaringan 9-20-1 pada

128
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

fungsi aktivasi logsig dengan MSE dan MAPE dan 11,6650%.


pengujian masing-masing sebesar 1,0762e+11

Tabel 6. Hasil Pelatihan BPNN dengan Mu = 0,002


Pelatihan Pengujian
Arsitektur
( ) Epoch Perf MAPE MAPE
Jaringan MSE R MSE R
(%) (%)
9-10-1 Tansig 15 0,00 8,2889e 0,3857 0,999 4,7038e 8,1636 0,801
0577 +07 71 +10 27

Berdasarkan Tabel 6 dapat dilihat bahwa fungsi aktivasi tansig dengan MSE dan MAPE
model terbaik BPNN pada algoritma pelatihan pengujian masing-masing sebesar 4,7038e+10
Levenberg-Marquardt dengan Mu = 0,002 dan 8,1636%.
diperoleh pada arsitektur jaringan 9-20-1 pada

Tabel 7. Hasil Pelatihan BPNN dengan Mu = 0,003


Pelatihan Pengujian
Arsitektur
( ) Epoch Perf MAPE MAPE
Jaringan MSE R MSE R
(%) (%)
9-20-1 Tansig 10 3,32 4,7675e 0,1008 0,999 9,2593e 11,6191 0,762
e-05 +06 98 +10 04

Berdasarkan Tabel 7 dapat dilihat bahwa momentum dan adaptive learning rate pada
model terbaik BPNN pada algoritma pelatihan arsitektur jaringan 9-10-1 dengan momentum
Levenberg-Marquardt dengan Mu = 0,003 = 0,8 dan LR = 0,1 pada fungsi aktivasi tansig.
diperoleh pada arsitektur jaringan 9-20-1 pada Model BPNN 9-10-1 memperoleh hasil epoch
fungsi aktivasi tansig dengan MSE dan MAPE ke 5000 yang memberikan nilai MSE dan MAPE
pengujian masing-masing sebesar 9,2593e+10 pengujian masing-masing sebesar 3,6069e+10
dan 11,6191%. dan 6,7670%. Iterasi berhenti pada epoch ke
Hasil pelatihan dan analisis numerik 5000 meskipun target error yang diinginkan
memberikan bahwa model terbaik BPNN pada (Goal = 0,001) belum tercapai. Model ini pada
algoritma pelatihan gradient descent dengan epoch ke 5000 telah mencapai konvergen
momentum dan adaptive learning rate dengan performance = 0,00784. Proses
diperoleh model BPNN terbaik dengan pelatihan pada setiap epoch ditunjukkan pada
algoritma pelatihan gradient descent dengan Gambar 2

129
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

Gambar 2. Proses Pelatihan BPNN dengan Algoritma Pelatihan Gradient Descent

Proses identifikasi menggunakan model , , ,


BPNN terbangun dari 5 neuron pada lapisan . Berdasarkan model BPNN yang
input, 4 neuron pada lapisan tersembunyi, dan terbentuk maka perhitungan identifikasi
1 neuron pada lapisan output. Diperoleh nilai publikasi karya ilmiah dosen sebagai berikut.
input , , Perhitungan pada lapisan input ke
, . lapisan tersembunyi sebagai berikut.
Selanjutnya input dinormalisasikan menjadi
[ ][ ][ ][ ][ ]
[ ][ ][ ][ ]
[ ]
[ ][ ][ ][ ][ ][ ]
[ ][ ][ ][ ][ ]
[ ][ ][ ]
[ ][ ]
[ ][ ][ ][ ][ ]
[ ][ ][ ][ ][ ]
[ ][ ][ ][ ]
[ ]
[ ][ ][ ][ ][ ]
[ ][ ][ ][ ][ ]
[ ][ ][ ][ ]
[ ]
[ ][ ][ ][ ][ ]
Diperoleh,

( ) ( ) ( )
( )

( ) ( ) ( )
( ) ( )

( ) ( ) ( ) ( )
( )

130
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

( ) ( )
( )

( ) ( )
( ) ( )

Operasi keluaran pada lapisan input ke lapisan tersembunyi sebagai berikut.

∑ ( )

∑ ( )

Dengan menggunakan fungsi aktivasi sigmoid biner, diperoleh

( )

( )

Perhitungan pada lapisan tersembunyi ke lapisan output sebagai berikut.

( ) ( )
(( ) ) ( ) ( )

Operasi keluaran pada lapisan tersembunyi ke lapisan output sebagai berikut.

Dengan menggunakan fungsi aktivasi linear, diperoleh

131
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

Tabel 9. Hasil identifikasi pada publikasi dosen karya publikasi dalam prosiding internasional
FMIPA UNNES sebanyak 31,0%.
Sedangkan saran yang diberikan dalam
Persentase
Variabel penelitian, bisa dikembangkan dengan
(dalam %)
menggunakan fungsi aktivasi dan bobot awal
X1 23,75 bias yang berbeda sehingga akan memberikan
X2 21,23 nilai dan hasil yang berbeda.
X3 19,02
X4 31,0 DAFTAR PUSTAKA

Bishop CM .1995. Neural Networks for Pattern


Hasil identifikasi publikasi dosen
Recognition. Birmingham: Oxford University
menggunakan BPNN dan analisis terhadap
Press.
pelatihan di atas diperoleh bahwa publikasi Beale & Finlay .1992. Testing for Neglected
dosen dengan karya jurnal bereputasi Nonlinearity in Time Series Models. A
internasional sebanyak 23,75%, untuk jurnal comparison of Neural Network methods and
internasional sebanyak 21,23%, dan jurnal alternative test. Journal of Econometrics
nasional terkareditasi sebesar 19,02% dan 56:269-290.
karya publikasi dalam prosiding internasional Chen JF .1995. Analysis of an adaftive time-series
sebanyak 31,0% (lihat Tabel 9). Berdasarkan autoregressive moving-average (ARMA)
model for short-term load forecasting.
perolehan data pada Tabel 9 maka hasil
Electric Power System Research, 34: 187-
identifikasi ini memberikan bahwa jumlah
196.
persentase terbanyak untuk publikasi dosen Fausett L .1994. Fundamentals of Neural Networks:
adalah publikasi dengan jenis prosiding Architectures, Algorithms, and Applications.
internasional sebanyak 31,0%. New Jersey: Prentice-Hall.
Fine TL .1999. Feedforward Neural Network
SIMPULAN Methodology. Springer: New York.
Hardianto HNI, Suyanto & Purnama B .2011. Analisis
Berdasarkan hasil penelitian dan hasil dan Implementasi Diferential Evolution dan
Recurrent Neural Network untuk Prediksi
pembahasan di bagian sebelumnya, maka
Data Time Series Studi Kasus Kurs Jual Emas.
disimpulkan bahwa model identifikasi
Tugas Akhir. Universitas Telkom.
publikasi dosen dalam mewujudkan Haykin H .1999. Neural Networks: A Comprehensive
internasionalisasi UNNES menggunakan BPNN Foundation, 2nd edition. Prentice-Hall:
berdasarkan hasil pelatihan dan analisis Oxford.
numerik memberikan bahwa model terbaik Husen W .2001. Forecasting of Maximum ShortTerm
BPNN pada algoritma pelatihan gradient Electricity Consumption by Using Elman-
descent dengan momentum dan adaptive Recurrent Neural Network. Unpublished
learning rate diperoleh model BPNN terbaik Final Project, Department of Physics
Engineering, Institut Teknologi Sepuluh
dengan algoritma pelatihan gradient descent
Nopember: Indonesia.
dengan momentum dan adaptive learning rate
Kusumadewi F .2014. Peramalan Harga Emas
pada arsitektur jaringan 9-10-1 dengan Menggunakan Feedforward Neural Networks
momentum = 0,8 dan LR = 0,1 pada fungsi Dengan Algoritma Backpropagation. Skripsi.
aktivasi tansig. Hasil identifikasi publikasi Universitas Negeri Yogyakarta.
dosen menggunakan BPNN dan analisis Kusumadewi S .2004. Membangun Jaringan Syaraf
terhadap pelatihan di atas diperoleh bahwa Tiruan: menggunakan MATLAB & Excel Link.
publikasi dosen dengan karya jurnal bereputasi Yogyakarta: Graha Ilmu.
internasional sebanyak 23,75%, untuk jurnal Ren, C., An, N., Wang, J., Li, L., Hu, B., & Shang, D.
2013. “Optimal Parameters Selection for BP
internasional sebanyak 21,23%, dan jurnal
Neural Network Based on Particle Swarm
nasional terkareditasi sebesar 19,02% dan

132
Walid et al. / Jurnal MIPA 41 (2) (2018): 121-133

Optimization: A Case Study of Wind Speed exponential smoothing. Journal of the


Forecasting”. Knowlede-Based Systems. Operational Research Society, 54: 799-805.
Ripley BD .1996. Pattern Recognition and Neural Walid, Subanar, Dedi R, Suhartono .2012. Recurrent
Networks. Cambridge University Press: Neural Network (RNN) pada Beban Listrik di
Cambridge. Semarang. Prosiding Seminar Nasional
Ristiana Y .2008. Autoregressive Neural Network Matematika. Unnes.
Model (ARNN) for Forecasting Short Term Walid, Subanar, Dedi R, Suhartono .2015. Fractional
Electricity Consumption at PT. PLN Gresik. Integrated Recurrent Neural Network
Unpublished Final Project, Department of (FIRNN) for Forecasting of Time Series Data
Physics Engineering, Institut Teknologi with Applications in Electric Load in Java-
Sepuluh Nopember, Indonesia. Bali. Contemporary Engineering Sciences,
Siang JJ .2004. Jaringan Syaraf Tiruan dan Vol. 8, no. 31: 1485 – 1500.
Pemrogramannya Menggunakan Matlab. Walid, Sugiman, Sunarmi, Dian TW .2018. Analisis
Penerbit Andi: Yogyakarta. Produktivitas Kinerja Dosen dan Tenaga
Swanson & White H .1995. Learning in Artificial Kependidikan dalam Mewujudkan Tahun
Neural Networks: A statistical Perspective. Reputasi Universitas Negeri Semarang
Neural Computation, Vol. 1, pp: 425-464. (UNNES) Menggunakan Jaringan Saraf
Taylor JW, Menezes LM & Mc Sharry PE .2006. A Tiruan, PRISMA 1 vol 1, no.1: 919-927.
comparison of univariate methods for Wang L, Wang ZG & Liu S .2018. Optimal Forecast
forecasting electricity demand up to a day Combination Based on Neural Networks for
ahead. International Journal of Forecasting, Time Series Forecasting. Apllied Soft
22: 1-16. Computing Journal.
Taylor JW .2003. Short-term electricity demand
forecasting using double seasonal

133

Anda mungkin juga menyukai