php/jsinbis 89
Abstract
Data availability of new studentsat the Polytechnic State Srivijaya high enough, so the need fora method to analyze the data. Artificial neural
network is an information processing system that has characteristics similar to biological neural networks, neural network sare used to
predict because ofthe ability of a good approach to ketidak linearan. This study will design the software selection admission of new students
with a backpropagation neural network methods. From the analysis of backpropagation neural networks with one hidden layer with the
number of neurons 50, 1000 iteration sand the activation functiont an sigproduce regression of 0.4822. Backpropagation neural network witht
wo hidden layers with the number of neurons 50, 4000 iterations with tansig activation function, resulting in regression of 0.7944.
Backpropagation neural networks with 3 hidden layer with the number of neurons 35, 5000 iterations, resulting in regression of 0.8563.
Based on the results of this analysis, backpropagation neural networks quite effectively used for selection of candidates for student
admission.
untuk menggantikan fungsi neuron yang rusak tersebut memperlemah sinyal yang dibawa. Jumlah, struktur, dan
(Jong, 2004). pola hubungan antar unit-unit tersebut akan menentukan
Hal yang ingin dicapai dengan melatih JST adalah untuk arsitektur jaringan.
mencapai keseimbangan antara kemampuan memorisasi dan 2. Suatu unit penjumlahan yang akan menjumlahkan input-
generalisasi. Yang dimaksud kemampuan memorisasi adalah input sinyal yang sudah dikalikan dengan bobotnya.
kemampuan JST untuk mengambil kembali secara sempurna 3. Fungsi aktivasi yang akan menentukan apakah sinyal dari
sebuah pola yang telah dipelajari. Kemampuan generalisasi inputneuron akan diteruskan ke neuron lain atau tidak.
adalah kemampuan JST untuk menghasilkan respon yang
bisa diterima terhadap pola-pola yang sebelumnya telah 2.3 Konsep Dasar Jaringan Syaraf Tiruan
dipelajari. Hal ini sangat bermanfaat bila pada suatu saat ke Setiap pola-pola informasi input dan output yang
dalam JST itu di inputkan informasi baru yang belum pernah diberiakan kedalam jaringan syaraf tiruan diproses dalam
dipelajari, maka JST itu masih akan tetap dapat memberikan neuron. Neuron-neuron tersebut terkumpul didalam lapisan-
tanggapan yang baik, memberikan keluaran yang mendekati lapisan yang disebut neuronlayers. Lapisan-lapisan
(Puspaningrum, 2006). penyusun jaringan syaraf tiruan tersebut dapat dibagi
Jaringan syaraf tiruan menyerupai otak manusia dalam 2 menjadi 3, yaitu :
hal, yaitu : 1. Lapisan input.
1. Pengetahuan diperoleh jaringan melalui proses belajar. Unit-unit di dalam lapisan input disebut unit-unit input.
2. Kekuatan hubungan antar sel syaraf (neuron) yang Unit-unit input tersebut menerima pola inputan data dari
dikenal sebagai bobot-bobot sinaptik digunakan untuk luar yang menggambarkan suatu permasalahan.
menyimpan pengetahuan. 2. Lapisan tersembunyi.
Jaringan syaraf tiruan ditentukan oleh 3 hal (Jong, 2004) : Unit-unit di dalam lapisan tersembunyi disebut unit-unit
1. Pola hubungan antar neuron (disebut arsitektur jaringan). tersembunyi. Dimana outputnya tidak dapat secara
2. Metode untuk menentukan bobot penghubung (disebut langsung diamati.
metode training/learning). 3. Lapisan output.
3. Fungsi aktivasi, yaitu fungsi yang digunakan untuk Unit-unit di dalam lapisan output disebut unit-unit
menentukan keluaran suatu neuron. output. Output dari lapisan ini merupakan solusi jaringan
syaraf tiruan terhadap suatu permasalahan.
2.2 Model Neuron
Satu sel syaraf terdiri dari 3 bagian, yaitu : fungsi 2.4 Arsitektur Jaringan Syaraf Tiruan
penjumlahan (summing function), fungsi aktivasi (activation Jaringan syaraf tiruan memiliki beberapa arsitektur
function), dan keluaran (output). jaringan yang sering digunakan dalam berbagai aplikasi.
Arsitektur jaringan syaraf tiruan tersebut, antara lain
X1
Wj1
(Kusumadewi, 2004).
1. Jaringan Layar Tunggal (single layer network).
Jaringan dengan lapisan tunggal terdiri dari 1 layer input
Wj2
X2 dan 1 layer output. Setiap neuron/unit yang terdapat di
dalam lapisan / layer input selalu terhubung dengan
setiap neural yang terdapat pada layer output. Jaringan
Wjn
ini hanya menerima input kemudian secara langsung
X3
akan mengolahnya menjadi output tanpa harus melalui
lapisan tersembunyi. Contoh algoritma jaringan syaraf
Masukan Keluaran tiruan yang menggunakan metode ini yaitu : ADALINE,
Hopfield, Perceptron.
Gambar 1. Model Neuron (Hermawan, 2006) Lapisan Input
Lapisan Output
Jika dilihat, neuron buatan diatas mirip dengan sel X1
neuron biologis. Informasi (input) akan dikirim ke neuron
dengan bobot tertentu. Input ini akan diproses oleh suatu Y1
fungsi yang akan menjumlahkan nilai-nilai bobot yang ada.
X2
Hasil penjumlahan kemudian akan dibandingkan dengan
suatu nilai ambang (threshold) tertentu melalui fungsi
aktivasi setiap neuron. Apabila input tersebut melewati suatu Y2
nilai ambang tertentu, maka neuron tersebut akan diaktifkan, X3
jika tidak, maka neuron tersebut akan mengirimkan output
melalui bobot-bobot outputnya ke semua neuron yang
Nilai Input Nilai Output
berhubungan dengannya.
Sehingga dapat disimpulkan bahwa neuron terdiri dari 3
elemen pembentuk yaitu : Gambar 2. Arsitektur Layer Tunggal (Hermawan, 2006)
1. Himpunan unit-unit yang dihubungkan dengan jalur
koneksi. Jalur-jalur tersebut memiliki bobot yang 2. Jaringan layar jamak (multi layer network).
berbeda-beda. Bobot yang bernilai positif akan Jaringan dengan lapisan jamak memiliki ciri khas
memperkuat sinyal dan yang bernilai negatip akan tertentu yaitu memiliki 3 jenis layer yakni layer input,
Jurnal Sistem Informasi Bisnis 02(2012) On-line : http://ejournal.undip.ac.id/index.php/jsinbis 91
layer output, layer tersembunyi. Jaringan dengan banyak proses pembelajaran, nilai bobot disusun dalam suatu
lapisan ini dapat menyelesaikan permasalahan yang range tertentu tergantung pada nilai input yang diberikan.
kompleks dibandingkan jaringan dengan lapisan tunggal. Tujuan pembelajaran ini adalah mengelompokkan unit-
Namun proses pelatihan sering membutuhkan waktu unit yang hampir sama dalam suatu area tertentu.
yang cenderung lama. Contoh algoritma jaringan syaraf Pembelajaran ini biasanya sangat cocok untuk klasifikasi
tiruan yang menggunakan metode ini yaitu : pola. Contoh algoritma jaringan syaraf tiruan yang
MADALINE, backpropagation, neocognitron. menggunakan metode ini adalah : Competitive, Hebbian,
Lapisan Input Kohonen, LVQ (Learning Vector Quantization),
Lapisan Tersembunyi
Neocognitron.
X1 c. Hybrid Learning (pembelajaran hibrida).
Merupakan kombinasi dari metode pembelajaran
Nilai Output
Y1 Supervised Learning dan Unsupervised Learning,
sebagian dari bobot-bobotnya ditentukan melalui
X2
M pembelajaran terawasi dan sebagian lainnya melalui
pembelajaran tak terawasi. Contoh algoritma jaringan
Y2 syaraf tiruan yang menggunakan metode ini adalah:
Lapisan Output algoritma RBF. Metode algoritma yang baik dan sesuai
X3
dalam melakukan pengenalan pola-pola gambar adalah
algoritma Backpropagation dan Perceptron. Untuk
Nilai Input
mengenali teks berdasarkan tipe font akan digunakan
algoritma Backpropagation.
Gambar 3. Arsitektur Layer Jamak (Hermawan, 2006)
2.6 Fungsi Aktivasi Jaringan Syaraf Tiruan
3. Jaringan dengan lapisan kompetitif. Dalam jaringan syaraf tiruan, fungsi aktivasi digunakan
Pada jaringan ini sekumpulan neuron bersaing untuk untuk menentukan keluaran suatu Neuron. Argument fungsi
mendapatkan hak menjadi aktif. Contoh algoritma yang aktivasi adalah net masukan (kombinasi linier masukan dan
menggunakan metode ini adalah : LVQ. bobotnya).
Beberapa fungsi aktivasi yang digunakan adalah :
a. Fungsi Threshold (batas ambang).
Fungsi Threshold merupakan fungsi threshold biner.
Untuk kasus bilangan bipolar, maka angka 0 diganti
dengan angka -1. Adakalanya dalam jaringan syaraf
tiruan ditambahkan suatu unit masukkan yang nilainya
selalu 1. Unit tersebut dikenal dengan bias. Bias dapat
dipandang sebagai sebuah input yang nilainya selalu 1.
Bias berfungsi untuk mengubah threshold menjadi = 0.
Y
1
Gambar 4. Arsitektur Layer Kompetitif (Hermawan, 2006)
berhenti).
Then exit.
1
set pelatihan sehingga kondisi berhenti dicapai, yaitu bila Demikian juga untuk setiap unit
mencapai jumlah epoch yang diinginkan atau hingga sebuah tersembunyi mulai dari unit ke-1 sampai
nilai ambang yang ditetapkan terlampaui. dengan unit ke-p dilakukan pengupdatean
Algoritma pelatihan jaringan backpropagation terdiri dari bobot dan bias.
3 tahapan yaitu: Langkah 9 : Uji kondisi berhenti (akhir iterasi).
1. Tahap umpan maju (feedforward).
2. Tahap umpan mundur (backpropagation). 3. Metodologi
3. Tahap pengupdatean bobot dan bias.
Secara rinci algoritma pelatihan jaringan backpropagation 3.1 Bahan Penelitian
dapat diuraikan sebagai berikut : Bahan yang dibutuhkan untuk melakukan penelitian
Langkah 0 : Inisialisasi bobot-bobot, konstanta laju dalam pembuatan aplikasi seleksi penerimaan mahasiswa
pelatihan (), teleransi error atau nilai baru dengan metode jaringan syaraf tiruan backpropagation
bobot ( bila menggunakan nilai bobot adalah data calon mahasiswa yang mendaftar di Politeknik
sebagai kondisi berhenti) atau set Negeri Sriwijaya dari tahun 2008-2010. Data yang diproses
maksimal epoch (jika menggunakan dipisahkan menjadi 2 bagian, bagian pertama dipergunakan
banyaknya epoch sebagai kondisi untuk melatih jaringan syaraf tiruan, bagian kedua
berhenti). dipergunakan untuk menguji kinerja dari jaringan syaraf
Langkah 1 : Selama kondisi berhenti belum dicapai, tiruan, yaitu untuk menguji apakah jaringan menghasilkan
maka lakukan langkah ke-2 hingga output sesuai dengan yang diinginkan. Pada waktu input
langkah ke-9. yang belum pernah dipelajari oleh jaringan. Semakin banyak
Langkah 2 : Untuk setiap pasangan pola pelatihan, data yang diperoleh, semakin baik jaringan dapat
lakukan langkah ke-3 sampai langkah ke- menyelesaikan masalahnya.
8.
Langkah 3 : {Tahap I : Umpan maju (feedforwand)}. 3.2 Alat Penelitian
Tiap unit masukan menerima sinyal dan Alat yang digunakan dalam proses penelitian ini adalah :
meneruskannya ke unit tersembunyi 1. Pada penelitian ini alat yang digunakan adalah
diatasnya. seperangkat komputer dengan spesifikasi ram 1GB,
Langkah 4 : Masing-masing unit di lapisan prosesor intel core 2 Dou, HDD 320 Gb.
tersembunyi (dari unit ke-1 hingga unit 2. Perangkat lunak yang digunakan untuk membangun
ke-p) dikalikan dengan bobotnya dan sistem ini adalah : Microsoft excel 2007, Matlab 2011.
dijumlahkan serta ditambahkan dengan Matlab singkatan dari MATrix Laboratory merupakan
biasnya. bahasa pemrograman komputer generasi ke empat yang
Langkah 5 : Masing-masing unit output dikembangkan oleh The Mathwork. Inc . Matlab
(yk,k=1,2,3,...m) dikalikan dengan bobot memungkinkan manipulasi matriks, dan data, implementasi
dan dijumlahkan serta ditambahkan algoritma, pembuatan antarmuka dan penghubung antara
dengan biasnya. user dengan program dalam bahasa lainnya. Terdapat fitur
Langkah 6 : {Tahap II : Umpan mundur (backward tambahan yang dapat digunakan sebagai sarana pemodelan
propagation)}. simulasi dan analisis dari sistem dinamik dengan
Masing-masing unit output menggunakan antarmuka GUI (graphical user interface),
(yk,k=1,2,3,...m) menerima pola target t k yang dikenal nama simulink.
sesuai dengan pola masukan/input saat Karateristik Matlab :
pelatihan dan kemudian informasi a. Bahasa pemrogramannya didasarkan pada matrix (baris
kesalahan/error lapisan output (k) dan kolom).
dihitung. k dikirim ke lapisan b. Lambat (dibandingkan dengan Fotran atau C) karena
dibawahnya dan digunakan untuk bahasanya langsung diartikan. Sebagai contoh, tidak
menghitung besarnya koreksi bobot dan diperlukan pre-compiled.
bias (Wjk dan Wok ) antara lapisan c. Automatic memory management, misalnya kita tidak
tersembunyi dengan lapisan output. harus mendeklarasikan arrays terlebih dahulu.
Langkah 7 : Pada setiap unit dilapisan tersembunyi d. Memiliki waktu pengembangan program yang lebih
(dari unit ke-1 hingga ke-p; cepat dibandingkan bahasa pemrograman tradisional
i=1n;k=1m) dilakukan perhitungan seperti fotran atau C.
informasi kesalahan lapisan tersembunyi e. Dapat diubah ke bahasa C melalui matlab compiler untuk
(j). j kemudian digunakan untuk efisiensi yang lebih baik.
menghitung besar koreksi bobot dan bias f. Tersedia banyak toolbox untuk aplikasi-aplikasi khusus.
(Vji dan Vjo) antara lapisan input dan g. Bisa dipakai disemua sistem operasi seperti : Unix,
lapisan tersembunyi. Windows atau Macintos.
Langkah 8 : {Tahap III : Pengupdatean bobot dan h. Fungsi matematikanya lebih lengkap.
bias}.
Masing-masing unit output/keluaran (yk, 3.3 Jalan Penelitian
k=1,2,3,,m) dilakukan pengupdatean Proses pembuatan sistem seleksi penerimaan mahasiswa
bias dan bobotnya (j=0,1,2,...p) sehingga baru di Politeknik Negeri Sriwijaya dengan metode jaringan
menghasilkan bobot dan bias baru. syaraf tiruan backpropagation diterangkan pada penjelasan
Jurnal Sistem Informasi Bisnis 02(2012) On-line : http://ejournal.undip.ac.id/index.php/jsinbis 94
X2
Studi Literatur
Jaringan Syaraf Tiruan Backpropagation
X3
X4
Perancangan Algoritma X5
JST Backpropagation
Perancangan Arsitektur
Jaringan
Pembagian data: Pembangunan Perangkat
Pengumpulan Data
1. Data Pelatihan Lunak Seleksi Penerimaan
Calon Mahasiswa Penyusunan Data Set
2. Data pengujian Mahasiswa Baru
Pelatihan dan Pengujian
Inisialisasi Data
Pelatihan data
Pengujian data
layer hidden dan layeroutput. Adaptasi bobot dilakukan telah ditentukan sebelumnya yaitu : jurusan, jenis kelamin,
secara terus menerus sampai dicapai keadaan error yang asal sekolah, usia ijasah, dan nilai rata-rata.
paling minimum adapun perhitungan untuk fase
pembelajaran adalah bobot awal yang telah di inisialisasi, 4.1.1 . Proses Pembelajaran
kemudian dilakukan perhitungan seperti berikut : Proses pembelajaran dilakukan dengan menggunakan
Hitung harga aktivasi sel-sel pada layer hidden dengan software matlab yang telah menyediakan fungsi-fungsi
persamaan 3.1 pembelajaran dan pengujian pada jaringan syaraf tiruan
dengan algoritma backpropagation. Proses pembelajaran
Zj = f(V0j + ni Xi Vij ) (3.1) dilakukan untuk mencari konfigurasi terbaik dengan cara
mengubah konstanta belajar dan jumlah lapisan tersembunyi
Dimana Vij adalah sel-sel pada layer input, Zj adalah sel pada secara coba-coba (trial and error). Data calon mahasiswa
layer hidden dan Xi adalah bobot interkoneksi antara layer yang digunakan pada proses pembelajaran adalah data calon
input dengan layer hidden, selanjutnya hitung harga aktivasi mahasiswa dalam waktu 2 tahun diambil dari tahun 2008 dan
sel-sel pada layer output dengan persamaan 3.2 2009.
Adapun hasil pembelajaran atau pelatihan dapat dilihat
= f(W0k + j Wkj Zi ) (3.2) pada tabel 2 dibawah ini.
Dimana Yk adalah sel-sel pada layer output dan Wkj adalah Tabel 2. Hasil pelatihan
bobot interkoneksi antara layer hidden dengan layer output. Data ke- Target Output Error
Proses perhitungan harga aktivasi ini berlangsung terus 1 0.00 -0.00 0.00
sampai pola berakhir. Kemudian hitung harga k yang akan 2 0.00 0.00 -0.00
digunakan untuk menghitung interkoneksi antara layer 3 1.00 1.00 0.00
hidden dengan layer output dalam jaringan melalui 4 0.00 0.00 -0.00
persamaan 3.3 5 1.00 0.97 0.03
Target
Target error : 0.02 0.60
Pola yang diajarkan : data calon mahasiswa tahun Target
2008 dan 2009 0.40
Output
Banyak data : 329 0.20
Jumlah iterasi : 5000
0.00
Selama proses pembelajaran berlangsung, error dari tiap
pola dapat ditampilkan, error dari tiap pola yang diajarkan 1 2 3 4 5
pada jaringan yang disimpan dari iterasi 1 sampai dengan Data ke
5000. Penyebab lamanya proses pembelajaran pada struktur
jaringan yang digunakan adalah pola yang diajarkan sangat Gambar 11. Grafik Pengujian Tahun 2010-2011
banyak, sehingga looping dari satu iterasi ke iterasi
dipengaruhi oleh banyaknya pola dan struktur data pada pola Gambar diatas menggambarkan grafik batang hasil
tersebut, selain itu penyebab target error rata-rata jaringan pengujian data calon mahasiswa tahun 2010-2011. Dari
sangat kecil yaitu, 0.02, semakin kecil target error jaringan grafik batang terlihat untuk data pertama, kedua, dan ketiga,
semakin lama proses pembelajaran yang dilakukan oleh yang ditampilkan hanya outputnya saja karena data tersebut
jaringan karena untuk memperkecil nilai error. mempunyai target 0. Untuk data keempat output dan target
Pada proses pembelajaran, jaringan melakukan proses tidak tampil karena data tersebut mempunyai output dan
backward atau arus balik dengan cara mengubah nilai bobot targetnya 0. Untuk data kelima targetnya 1 sedangkan
jaringan, sebelum target error terpenuhi, pembelajaran akan outputnya 0.01.
terus dilanjutkan sampai tercapai target error. Semakin kecil
target error yang ditetapkan semakin akurat jaringan 4.2.1 Analisa Hasil Pelatihan dengan 1 hidden layer.
mengenali dan menghitung bentuk pola baru yang diujikan Hasil pelatihan data seleksi penerimaan calon mahasiswa
kepadanya. baru tahun 2008,2009, dengan menggunakan struktur
Adapun hasil pengujian terhadap data calon mahasiswa jaringan 5 layer terdiri dari 1 unit input, 3 hidden layer dan 1
tahun 2010-2011 pada tabel 3 sebagai berikut: unit output dengan 5000 epoch, seperti tabel 4 dibawah ini.
Tabel 3. Hasil pengujian tahun 2010-2011 Tabel 4. Output JST dengan 1 hidden layer
Data ke Target Output Error Input Output
1 0.00 0.25 -0.25 Jumlah Iterasi Regresi MSE Waktu
2 0.00 0.01 -0.01 Neuron (detik)
3 0.00 0.99 -0.99 30 1000 0.22669 0.11695 31.356
4 0.00 -0.00 0.00 50 1000 0.48220 0.09400 57.339
5 1.00 0.01 0.99 70 1000 0.33978 0.10839 90.200
80 1000 0.33795 0.10857 119.674
Tabel diatas merupakan hasil pengujian dari data calon 90 1000 0.23452 0.11573 148.668
mahasiswa tahun 2010-2011 Data pertama targetnya 0, 100 1000 0.35111 0.10757 203.606
outputnya 0.25 , errornya -0.25. Data kedua targetnya 0, 150 1000 0.37345 0.10544 474.838
outputnya -0.01, errornya -0.01. Data ketiga targetnya 0, 200 1000 0.38701 0.10414 974.959
outputnya 0.99, errornya -0.99. Data keempat targetnya 0,
outputnya -0.00, errornya 0.00. Data kelima targetnya 1, 4.2.2 Analisa Hasil Pelatihan Dengan 2 Hidden Layer.
outputnya 0.01, errornya 0.99. Hasil pelatihan data seleksi penerimaan calon mahasiswa
baru tahun 2008, 2009, dengan menggunakan struktur
jaringan 5 layer terdiri dari 1 unit input, 3 hidden layer dan 1
unit output dengan 5000 epoch, seperti tabel 5 dibawah ini.
Jurnal Sistem Informasi Bisnis 02(2012) On-line : http://ejournal.undip.ac.id/index.php/jsinbis 97
Tabel 5. output JST dengan 2 hidden layer 3. Jaringan syaraf tiruan dengan 3 hidden layer, dengan
Input Output jumlah neuron 35, iterasi 5000 dengan fungsi aktivasi
Jumlah Iterasi Regresi MSE Waktu tansig mampu mendekati regresi 0.8563.
Neuron (detik) 4. Inisialisasi parameter (learning rate, fungsi aktivasi,
24 5000 0.7165 0.0596 236.0410 jumlah iterasi), dan struktur jaringan sangat menentukan
25 1000 0.7096 0.0608 35.7420 dalam proses pembelajaran jaringan syaraf tiruan.
25 1500 0.6129 0.0765 56.9140 Dari penelitian ini saran yang dapat diberikan adalah :
25 3000 0.2816 0.1128 106.7530 Dari penelitian ini, masih dapat dilakukan pengembangan
30 2500 0.7799 0.0480 140.4130 arsitektur jaringan syaraf tiruan backpropagation sampai
30 4000 0.6929 0.0637 238.0720 pada tahap prediksi, dengan memasukkan variabel yang lain
40 1000 0.2146 0.1170 137.8760 seperti, asal daerah, penghasilan orang tua.
40 1500 0.3028 0.1117 216.0210
50 4000 0.7944 0.0452 1439.6030
50 3000 0.7294 0.0573 1112.5790 Daftar Pustaka
60 2500 0.7391 0.0556 1686.3270 Azadeh, A, Ghaderi S.F., Sohrabkhani S. 2008. Annual Electricity
Consumption Forecasting by Neural Network in High Energy
4.2.3 Analisa Hasil Pelatihan Dengan 3 Hidden Layer. Consuming Industrial Sectors. ScienceDirect.
Hasil pelatihan data seleksi penerimaan calon mahasiswa Budiyanto, D., 2000. Data Mining Dengan Jaringan Syaraf Tiruan
Backpropagation. Jurnal Teknologi Industri Vol. IV. No. 1.
baru tahun 2008, 2009, dengan menggunakan struktur Januari 2000: 75-82.
jaringan 5 layer terdiri dari 1 unit input, 3 hidden layer dan 1 Chaudhari, Ms, JC., 2010. Design Of Artificial Back Propagation Neural
unit output dengan 5000 epoch, seperti tabel 6 dibawah ini. Network For Drug Pattern Recognition. International Journal On
Computer Science and Enginnering.
Chrestanti, R., Santoso A.J., Ernawati L., 2002. Implementasi
Tabel 6. Output JST dengan 3 hidden layer Backpropagation Dalam Memprediksi Kebangkrutan Bank Di
Input Output Indonesia. Jurnal Teknologi Industri. Vol. VI, No. 4, Oktober 2002.
Jumlah Iterasi Regresi MSE Waktu Hartanto, T., Prasetyo, Y. Analisis dan Desain Sistem Kontrol Dengan
Matlab. Penerbit Andi. Yogyakarta.
Neuron (detik) Hermawan, A., 2006. Jaringan Syaraf Tiruan Teori dan Aplikasi. Penerbit
35 1000 0.2470 0.1150 59.9200 Andi. Yogyakarta.
35 2000 0.7496 0.0537 132.4910 Jayalakshmi T., Santhakumaran., 2011. Statistical Normalization and Back
35 5000 0.8647 0.0309 436.9130 Propagation for Classification.Internasional Journal of Computer
Theory and Engineering. Vol. 3, No. 1, February, 2011.
Jong S.J. 2004. Jaringan Syaraf Tiruan & Pemrogramannya Menggunakan
Matlab. Penerbit Andi. Yogyakarta.
5. Kesimpulan Kusumadewi, S., 2004. Membangun Jaringan Syaraf Tiruan Menggunakan
Matlab & Excel Link. Penerbit Graha Ilmu.
Nuraeni, Y. 2009. Penerapan Jaringan Syaraf Tiruan Untuk Mengukur
Berdasarkan hasil penelitian yang telah dilakukan dapat Tingkat Korelasi Antara NEM Dengan IPK Kelulusan Mahasiswa.
diambil beberapa kesimpulan diantaranya adalah : Telkomnika. Vol. 7, No. 3, Desember 2009.
1. Jaringan syaraf tiruan dengan 1 hidden layer, dengan Sutikno, T., Pujianta A., Supanti YT., 2007. Prediksi Resiko Kredit Dengan
jumlah neuron 50, iterasi 1000 dengan fungsi aktivasi Jaringan Syaraf Tiruan Backpropagation. Seminar Nasional Aplikasi
Teknologi Informasi 2007.
tansig mampu mendekati regresi 0.4822. Puspitaningrum, D., 2006. Pengantar Jaringan Syaraf Tiruan. Penerbit Andi
2. Jaringan syaraf tiruan dengan 2 hidden layer, dengan Jogjakarta.
jumlah neuron 50, iterasi 4000 dengan fungsi aktivasi Widodo, P.P. Handayanto, R.T., 2009. Penerapan Soft Computing Dengan
tansig mampu mendekati regresi 0.7944. Matlab. Penerbit. Rekayasa Sains.