Anda di halaman 1dari 6

Seminar Nasional Informatika 2014

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN


METODE BACKPROPAGATION NEURAL NETWORK
Yudhi Andrian1, Erlinda Ningsih2
1
Dosen Teknik Informatika, STMIK Potensi Utama
2
Mahasiswa Sistem Informasi, STMIK Potensi Utama
1,2
STMIK Potensi Utama, Jl. K.L. Yos Sudarso Km 6,5 No. 3A Tanjung Mulia-Medan
1
yudhi.andrian@gmail.com, 2erlinda.301093@gmail.com

Abstrak

Besarnya curah hujan yang terjadi tidak dapat ditentukan secara pasti, namun dapat diprediksi atau
diperkirakan. Dengan menggunakan data historis besarnya curah hujan beberapa waktu yang lampau, maka
dapat diprediksi berapa besarnya curah hujan yang terjadi pada masa yang akan datang. Jaringan saraf tiruan
(Artificial Neural Network) sebagian besar telah cukup handal dalam pemecahan masalah, salah satunya
adalah prediksi curah hujan dengan metode backpropagation. Pada penelitian ini, penulis mencoba
memprediksi curah hujan di kota medan menggunakan metode backpropagation neural network. Dari hasil
penelitian dapat disimpulkan antara lain : Pengujian dengan hidden 5 memiliki akurasi yang lebih baik
dibandingkan dengan hidden 6, 7, dan 8. Nilai akurasi tertinggi di dapat dari pengujian data dengan jumlah
hidden 5 dan target error 0.0072 yaitu 43.27 %. Semakin kecil target error, maka jumlah iterasi akan
semakin besar. hidden layer yang lebih besar tidak selalu menyebabkan jumlah iterasi meningkat.

Kata kunci : Prediksi curah hujan, backpropagation, neural network

1. Pendahuluan saling interkoneksi secara non-linier. Neuron


saling terhubung satu sama lain melalui suatu
Secara umum pola musim di Indonesia jaringan. Jaringan ini yang dilatih menggunakan
dikenal dengan pola Monsun. Pola monsun ini algoritma backpropagation yang mengikuti
sangat dipengaruhi oleh angin monsun yang Gradient Descent Method [2].
menghasilkan dua musim yakni musim hujan dan Pai, Maya L., et al. (2014) mengungkapkan
musim kemarau. Puncak musim hujan terjadi bahwa parameter laut sangat mempengaruhi
pada bulan Desember, Januari dan Februari dalam memprediksi curah hujan monsun barat
sedangkan puncak musim kemarau terjadi pada selatan menggunakan teknik jaringan saraf tiruan.
bulan Juni, Juli dan Agustus [1]. Kondisi cuaca Hasil penelitian menunjukan bahwa metode JST
sangat berpengaruh dalam kehidupan sehari-hari, dapat diterapkan dalam memprediksi curah hujan
seperti dalam bidang pertanian, transportasi dan [4].
industri. Maka dari itu pengamatan terhadap Pratiwi, Dian, et al. (2011) menggunakan
kondisi cuaca, khususnya kondisi curah hujan metode backpropagation untuk memprediksi
sangat penting dilakukan [3]. keparahan penyakit osteoarthritis. Penggunaan
Besarnya curah hujan yang terjadi tidak metode backpropagation neural network terbukti
dapat ditentukan secara pasti, namun dapat sebagai salah satu metode untuk
diprediksi atau diperkirakan. Dengan mengklasifikasikan atau memprediksi keparahan
menggunakan data historis besarnya curah hujan penyakit osteoarthritis berdasarkan warna dan
beberapa waktu yang lampau, maka dapat tekstur dengan persentase akurasi 66,6% [5].
diprediksi berapa besarnya curah hujan yang Masing-masing metode yang telah
terjadi pada masa yang akan datang. Banyak cara dijelaskan di atas dapat diterapkan dalam
yang dapat dilakukan untuk memprediksi memprediksi suatu keadaan yang akan datang.
besarnya curah hujan di suatu tempat, salah Pada penelitian ini penulis mencoba memprediksi
satunya adalah menggunakan teknik jaringan curah hujan di Kota Medan dengan metode
syaraf tiruan (Artificial Neural Network)[3]. backpropagation neural network dengan
Jaringan Saraf Tiruan (Artificial Neural menggunakan data curah hujan tahun 1997 –
Network) sebagian besar telah cukup handal 2012. Penelitian ini bertujuan untuk mengetahui
selama beberapa tahun terakhir dalam pemecahan jumlah hidden layer dan target error yang tepat
masalah. Jaringan saraf tiruan menyediakan untuk digunakan dalam memprediski curah hujan
metodologi yang sangat handal dalam pemecahan di kota Medan sehingga menghasilkan akurasi
masalah non-linier. Jaringan saraf tiruan yang lebih baik.
terinspirasi oleh otak manusia di mana neuron

184
Seminar Nasional Informatika 2014

Neural Network pola input pelatihan, kemudian hitung


Neural Network / Jaringan Saraf Tiruan error, ditunjukkan dengan persamaan (5).
(JST) adalah paradigma pengolahan informasi
yang terinspirasi oleh sistem saraf secara biologis, f’ adalah turunan dari fungsi aktivasi.
seperti proses informasi pada otak manusia. Kemudian hitung korelasi bobot,
Elemen kunci dari paradigma ini adalah struktur ditunjukkan dengan persamaan (6).
dari sistem pengolahan informasi yang terdiri dari (6)
sejumlah besar elemen pemrosesan yang saling
berhubungan (neuron), bekerja serentak untuk Dan menghitung koreksi bias, ditunjukkan
menyelesaikan masalah tertentu. dengan persamaan (7).
Cara kerja JST seperti cara kerja manusia, (7)
yaitu belajar melalui contoh. Lapisan-lapisan
penyusun JST dibagi menjadi 3, yaitu lapisan Sekaligus mengirimkan δk ke unit-unit
input (input layer), lapisan tersembunyi (hidden yang ada di lapisan paling kanan.
layer), dan lapisan output (ouput layer) [6]. 4) Setiap unit tersembunyi (Zj, j=1,2,3,…,p)
menjumlahkan delta input-nya (dari unit-
Metode Backpropagation unit yang berada pada lapisan di
Arsitektur backpropagation merupakan kanannya), ditunjukkan dengan persamaan
salah satu arsitektur jaringan saraf tiruan yang (8).
dapat digunakan untuk mempelajari dan (8)
menganalisis pola data masa lalu lebih tepat
sehingga diperoleh keluaran yang lebih akurat
(dengan kesalahan atau error minimum) [3]. Untuk menghitung informasi error,
Langkah-langkah dalam membangun kalikan nilai ini dengan turunan dari fungsi
algoritma backpropagation adalah sebagai berikut aktivasinya, ditunjukkan dengan
[6]: persamaan (9).
e. Inisialisasi bobot (ambil nilai random yang (9)
cukup kecil). Kemudian hitung koreksi bobot,
f. Tahap perambatan maju (forward ditunjukkan dengan persamaan (10).
propagation) (10)
4) Setiap unit input (X1, i=1,2,3,…,n) Setelah itu, hitung juga koreksi bias,
menerima sinyal xi dan meneruskan sinyal ditunjukkan dengan persamaan (11).
tersebut ke semua unit pada lapisan (11)
tersembunyi. h. Tahap perubahan bobot dan bias
5) Setiap unit tersembunyi (Z1, j=1,2,3,…,p) 3) Setiap unit output (Yk, k=1,2,3,…,m)
menjumlahkan bobot sinyal input, dilakukan perubahan bobot dan bias
ditunjukkan dengan persamaan (1). (j=0,1,2,…,p), ditunjukkan dengan
(1) persamaan (12).
(12)

Dan menerapkan fungsi aktivasi untuk


Setiap unit tersembunyi (Zj, j=1,2,3,…,p)
menghitung sinyal output-nya, ditunjukkan
dengan persamaan (2). dilakukan perubahan bobot dan bias
(2) (i=0,1,2,…,n), ditunjukkan dengan
persamaan (13).
(13)
Fungsi aktivasi yang digunakan adalah
4) Tes kondisi berhenti.
fungsi sigmoid, kemudian mengirimkan
sinyal tersebut ke semua unit output.
6) Setiap unit output (Yk, k=1,2,3,…,m)
menjumlahkan bobot sinyal input, 2. Metode Penelitian
ditunjukkan dengan persamaan (3).
Penelitian ini bertujuan untuk memprediksi
(3) curah hujan di Kota Medan menggunakan metode
Dan menerapkan fungsi aktivasi untuk backpropagation neural network. Penulis ingin
menghitung sinyal output-nya, ditunjukkan mengetahui apakah dengan menggunakan metode
dengan persamaan (4). backpropagation neural network dapat
(4)
memprediksi curah hujan di kota Medan dengan
g. Tahap perambatan balik (backpropagation) akurasi yang lebih baik.
3) Setiap unit output (Yk, k=1,2,3,…,m) (5) Untuk mencapai tujuan tersebut, penulis
menerima pola target yang sesuai dengan akan melakukan pengujian dengan menggunakan
data sekunder curah hujan bulanan Kota Medan

185
Seminar Nasional Informatika 2014

tahun 1997 – 2012. Data bersumber dari BMKG g. Pengenalan pola (pelatihan)
Stasiun Polonia, Kota Medan. Pengenalan pola dilakukan dengan cara
Prediksi curah hujan dengan penyesuaian nilai bobot. Penghentian
backpropagation neural network digunakan penyesuaian bobot dalam pengenalan pola
langkah-langkah sebagai berikut: apabila error yang dihasilkan mencapai target
e. Memisahkan data yang akan digunakan error. Error dihitung setelah tahapan forward
sebagai data pelatihan dan data uji. Data curah propagation. Apabila error lebih besar dari
hujan tahun 1997 – 2008 akan digunakan target error maka pelatihan akan dilanjutkan
sebagai data pelatihan selama perancangan ke tahap backward propagation sampai error
JST sedangkan data tahun 2009 – 2012 yang dihasilkan mencapai target error.
digunakan sebagi data pengujian. h. Pengujian dan prediksi
f. Desain JST Pengujian dilakukan bertujuan untuk
Desain JST dilakukan untuk prediksi curah mengetahui tingkat keakuratan sistem JST
hujan bulanan dimulai dengan menentukan yang telah dibuat dalam memprediksi data
banyaknya data masukan yang digunakan, curah hujan pada tahun tertentu. Sedangkan
banyaknya layar tersembunyi (hidden layer) prediksi bertujuan untuk memprediksi data
yang digunakan, dan banyaknya keluaran curah hujan yang akan datang.
yang diinginkan. Data yang digunakan sebagai
masukan sebanyak 8 data (8 tahun) dan data
keluaran atau target adalah data pada tahun 3. Hasil dan Analisa
ke-9 (data input 1997 – 2004 dengan target
2005). Untuk mengetahui curah hujan pada Untuk mengetahui apakah aplikasi yang
tahun ke-10 maka data masukannya dibuat telah berjalan dengan baik, maka dilakukan
merupakan data pada tahun ke-2 sampai tahun pengujian. Data curah hujan tahun 1997 – 2008
ke-9 (data input 1998 – 2005 dengan target akan digunakan sebagai data pelatihan sedangkan
2006), demikian seterusnya. Desain JST data tahun 2009 – 2012 digunakan sebagai data
prediksi curah hujan dapat dilihat pada pengujian. Proses yang ditempuh untuk prediksi
gambar 1. curah hujan menggunakan backpropagation
neural network meliputi tahap training, tahap
pengujian dan tahap prediksi. Tabel 1 merupakan
Input Layer Hidden Layer Output Layer input data curah hujan tahun 1997 – 2008.

x1 Tabel 1(a). Data Input Tahun 1997 sampai


2004 dengan Target 2005

1997 1998 1999 2000 2001 2002 2003 2004 2005


x2 v1 106.8 181 315 59 216.5 90.8 169.4 138.8 189.1
96.9 50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9
134.4 29,4 196.6 182.2 158 96.5 162.6 237.9 62.5
109.8 35.3 322 115 164.8 73.4 285.3 88.5 168.2
x3 v2 80.9 133.5 302.6 60.3 252.8 195.2 245.7 68 229.5
175.3 144.6 256.2 191.1 306.7 191.7 196.3 200.5 174
225.8 213 29.9 121.9 121.3 139.2 312.1 206.8 210.8
95.7 381 78.6 342.6 417.6 156.3 282 204.3 145.7
x4 v3 290.6 170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5
391.1 340.3 204.1 367.5 733 363.8 471.9 377.5 175.5
y1 265.4 275.8 126.4 108 467.6 164.3 125.4 141.2 206.4
182.4 394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4
x5 v4
Tabel 1(b). Data Input Tahun 1998 sampai
2005 dengan Target 2006
x6 v5
1998 1999 2000 2001 2002 2003 2004 2005 2006
181 315 59 216.5 90.8 169.4 138.8 189.1 103.9
50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5
x7 v6 29,4 196.6 182.2 158 96.5 162.6 237.9 62.5 121.2
35.3 322 115 164.8 73.4 285.3 88.5 168.2 225.5
133.5 302.6 60.3 252.8 195.2 245.7 68 229.5 300.5
144.6 256.2 191.1 306.7 191.7 196.3 200.5 174 251.4
x8 213 29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1
381 78.6 342.6 417.6 156.3 282 204.3 145.7 148.3
170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6
340.3 204.1 367.5 733 363.8 471.9 377.5 175.5 271.4
275.8 126.4 108 467.6 164.3 125.4 141.2 206.4 148.4
Gambar 1. Desain Backpropagation Neural 394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6
Network

186
Seminar Nasional Informatika 2014

Tabel 1(c). Data Input Tahun 1999 sampai Tabel 2(b). Data Hasil Normalisasi Tahun 1998
2006 dengan Target 2007 sampai 2005 dengan Target 2006
1999 2000 2001 2002 2003 2004 2005 2006 2007 1998 1999 2000 2001 2002 2003 2004 2005 2006
315 59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 0.2904 0.4384 0.1557 0.3296 0.1908 0.2776 0.2438 0.2993 0.2052
0.1459 0.3874 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 0.2346
268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 0.123 0.308 0.2917 0.265 0.1971 0.2701 0.3532 0.1595 0.2244
196.6 182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 0.1295 0.4461 0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 0.3362
322 115 164.8 73.4 285.3 88.5 168.2 225.5 277.2 0.2379 0.4247 0.1571 0.3697 0.3061 0.3618 0.1656 0.344 0.4224
302.6 60.3 252.8 195.2 245.7 68 229.5 300.5 330.2 0.2502 0.3734 0.3015 0.4292 0.3022 0.3072 0.3119 0.2827 0.3682
256.2 191.1 306.7 191.7 196.3 200.5 174 251.4 99.4 0.3257 0.1235 0.2251 0.2245 0.2442 0.4352 0.3189 0.3233 0.211
0.5113 0.1773 0.4689 0.5517 0.2631 0.4019 0.3161 0.2514 0.2543
29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6
0.2791 0.5402 0.5887 0.5275 0.5129 0.7106 0.6154 0.4113 0.5163
78.6 342.6 417.6 156.3 282 204.3 145.7 148.3 153.4 0.4663 0.3159 0.4964 0.9 0.4923 0.6117 0.5074 0.2843 0.3902
407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5 0.3951 0.2301 0.2098 0.6069 0.2719 0.229 0.2464 0.3184 0.2544
204.1 367.5 733 363.8 471.9 377.5 175.5 271.4 303.3 0.5258 0.5944 0.2822 0.4687 0.2034 0.2978 0.2743 0.4344 0.4733
126.4 108 467.6 164.3 125.4 141.2 206.4 148.4 374.1
456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4
Tabel 2(c). Data Hasil Normalisasi Tahun 1999
Tabel 1(d). Data Input Tahun 2000 sampai sampai 2006 dengan Target 2007
2007 dengan Target 2008 1999 2000 2001 2002 2003 2004 2005 2006 2007
0.4384 0.1557 0.3296 0.1908 0.2776 0.2438 0.2993 0.2052 0.2778
0.3874 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 0.2346 0.1
2000 2001 2002 2003 2004 2005 2006 2007 2008 0.308 0.2917 0.265 0.1971 0.2701 0.3532 0.1595 0.2244 0.1593
59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 126.7 0.4461 0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 0.3362 0.3966
86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 16.2 0.4247 0.1571 0.3697 0.3061 0.3618 0.1656 0.344 0.4224 0.4552
182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 126.8 0.3734 0.3015 0.4292 0.3022 0.3072 0.3119 0.2827 0.3682 0.2003
115 164.8 73.4 285.3 88.5 168.2 225.5 277.2 146 0.1235 0.2251 0.2245 0.2442 0.4352 0.3189 0.3233 0.211 0.3794
0.1773 0.4689 0.5517 0.2631 0.4019 0.3161 0.2514 0.2543 0.2599
60.3 252.8 195.2 245.7 68 229.5 300.5 330.2 172.5
0.5402 0.5887 0.5275 0.5129 0.7106 0.6154 0.4113 0.5163 0.3738
191.1 306.7 191.7 196.3 200.5 174 251.4 99.4 62 0.3159 0.4964 0.9 0.4923 0.6117 0.5074 0.2843 0.3902 0.4255
121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6 276.8 0.2301 0.2098 0.6069 0.2719 0.229 0.2464 0.3184 0.2544 0.5036
342.6 417.6 156.3 282 204.3 145.7 148.3 153.4 195.7 0.5944 0.2822 0.4687 0.2034 0.2978 0.2743 0.4344 0.4733 0.3317
451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5 294.8
367.5 733 363.8 471.9 377.5 175.5 271.4 303.3 342.2
108 467.6 164.3 125.4 141.2 206.4 148.4 374.1 412.5 Tabel 2(d). Data Hasil Normalisasi Tahun 2000
173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4 245.7
sampai 2007 dengan Target 2008
Sebelum diproses data-data input tersebut 2000 2001 2002 2003 2004 2005 2006 2007 2008
0.1557 0.3296 0.1908 0.2776 0.2438 0.2993 0.2052 0.2778 0.2304
akan dinormalisasi. Normalisasi terhadap data 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 0.2346 0.1 0.1084
0.2917 0.265 0.1971 0.2701 0.3532 0.1595 0.2244 0.1593 0.2305
dilakukan agar keluaran jaringan sesuai dengan 0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 0.3362 0.3966 0.2517
fungsi aktivasi yang digunakan. Data-data 0.1571
0.3015
0.3697
0.4292
0.3061
0.3022
0.3618
0.3072
0.1656
0.3119
0.344
0.2827
0.4224
0.3682
0.4552
0.2003
0.281
0.159
tersebut dinormalisasi dalam interval [0, 1] karena 0.2251
0.4689
0.2245
0.5517
0.2442
0.2631
0.4352
0.4019
0.3189
0.3161
0.3233
0.2514
0.211
0.2543
0.3794
0.2599
0.3962
0.3066
dalam prediksi curah hujan, nilai curah hujan 0.5887 0.5275 0.5129 0.7106 0.6154 0.4113 0.5163 0.3738 0.4161
0.4964 0.9 0.4923 0.6117 0.5074 0.2843 0.3902 0.4255 0.4684
pasti bernilai positif atau 0. Selain itu juga terkait 0.2098 0.6069 0.2719 0.229 0.2464 0.3184 0.2544 0.5036 0.5461
0.2822 0.4687 0.2034 0.2978 0.2743 0.4344 0.4733 0.3317 0.3618
fungsi aktivasi yang diberikan yaitu sigmoid
biner.
Setelah data dinormalisasi, maka akan di
Fungsi sigmoid adalah fungsi asimtotik
generate nilai bobot input ke hidden awal, bias
(tidak pernah mencapai 0 ataupun 1) maka
input ke hidden, bobot hidden ke output, dan bias
transformasi data hendaknya dilakukan pada
hidden ke output. Data bobot digenerate secara
interval yang lebih kecil yaitu [0.1, 0.8],
acak antara 0 sampai dengan 1. Tabel 3
ditunjukkan dengan persamaan (14).
menunjukkan hasil generate nilai bobot.
(14)
Tabel 3. Hasil generate Nilai Bobot
a adalah data minimum, b adalah data maksimum, Bobot Input Ke Hidden Awal
x adalah data yang akan dinormalisasi dan x’ 0.3528 0.2667 0.2898 0.1448 0.151 0.3874
adalah data yang telah ditransformasi. Tabel 2 0.007 0.3804 0.4072 0.3545 0.0227 0.207
merupakan hasil normalisasi data input. 0.4313 0.3952 0.1868 0.481 0.4357 0.0281
0.4748 0.182 0.2624 0.3836 0.0268 0.2962
0.2344 0.1491 0.3113 0.3239 0.1319 0.1397
Tabel 2(a). Data Hasil Normalisasi Tahun 1997
0.4149 0.4123 0.2946 0.493 0.4555 0.1134
sampai 2004 dengan Target 2005 0.3476 0.49 0.122 0.2669 0.0532 0.4997
0.3381 0.0079 0.2876 0.05 0.0515 0.3994
1997 1998 1999 2000 2001 2002 2003 2004 2005
0.2078 0.2904 0.4384 0.1557 0.3296 0.1908 0.2776 0.2438 0.2993 Bias Input Ke Hidden
0.1972 0.1459 0.3874 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 0.1422 0.0228 0.1479 0.191 0.1505 0.4743
0.2389 0.123 0.308 0.2917 0.265 0.1971 0.2701 0.3532 0.1595
0.2118 0.1295 0.4461 0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 Bobot Hidden ke Output
0.1798 0.2379 0.4247 0.1571 0.3697 0.3061 0.3618 0.1656 0.344 0.4899 0.2007 0.1391 0.0802 0.0814 0.3233
0.2841 0.2502 0.3734 0.3015 0.4292 0.3022 0.3072 0.3119 0.2827
0.3399 0.3257 0.1235 0.2251 0.2245 0.2442 0.4352 0.3189 0.3233 Bias Hidden ke Output
0.1962 0.5113 0.1773 0.4689 0.5517 0.2631 0.4019 0.3161 0.2514 0.367
0.4114 0.2791 0.5402 0.5887 0.5275 0.5129 0.7106 0.6154 0.4113
0.5224 0.4663 0.3159 0.4964 0.9 0.4923 0.6117 0.5074 0.2843
0.3836 0.3951 0.2301 0.2098 0.6069 0.2719 0.229 0.2464 0.3184
0.2919 0.5258 0.5944 0.2822 0.4687 0.2034 0.2978 0.2743 0.4344 Tahap selanjutnya adalah trainning. Proses
training dilakukan sampai error yang dihasilkan
sesuai atau lebih kecil dari target error. Gambar 2
merupakan grafik penurunan kuadrat error hasil

187
Seminar Nasional Informatika 2014

training dengan target error 0.01 dan jumlah Tabel 5(b). Hasil Pengujian dengan Target
hidden layer 6. Error 0.008

Jumlah Kuadrat Iterasi Akurasi


Hidden Error
5 0.0079 160 42.79 %
6 0.0079 186 42.35 %
7 0.0079 218 41 %
8 0.0079 241 41.21 %

Tabel 5(c). Hasil Pengujian dengan Target


Error 0.0072
Gambar 2. Grafik Penurunan Kuadrat Error
Jumlah Kuadrat Iterasi Akurasi
Pada gambar 1 dapat dilihat bahwa penurunan Hidden Error
kuadrat error berhenti dan mencapai target error 5 0.0072 4500 43.27 %
0.01 dengan jumlah iterasi sebanyak 66. Proses 6 0.0072 4500 43.21 %
trainning akan memperbaiki bobot nilai random. 7 0.0072 2000 42.88 %
Hasil bobot yang telah diperbaiki melalui proses 8 0.0072 3000 43.4 %
training ditunjukkan pada tabel 4. Pada tabel 4
dapat dilihat bahwa semua nilai bobot telah Pada tabel 5(a), dapat dilihat bahwa
berubah. pengujian dengan jumlah hidden 5 memiliki
akurasi yang lebih baik dari pada pengujian
Tabel 4. Nilai Bobot Hasil Training menggunakan hidden 6, 7, dan 8 yaitu 26.44%
Bobot Input Ke Hidden Hasil Training dan jumlah iterasi sebanyak 70. Pada tabel 5(b),
0.375 0.2489 0.243 0.0915 0.0151 0.3219 pengujian dengan jumlah hidden 5 memiliki nilai
0.507 0.5646 0.385 0.3017 -0.555 0.0807 akurasi yang lebih baik dari pada pengujian
0.797 0.5195 0.149 0.4197 -0.04 -0.0942 menggunakan hidden 6, 7, dan 8 yaitu 42.79%
0.764 0.2667 0.216 0.3144 -0.367 0.1891
dan jumlah iterasi sebanyak 160. Pada tabel 5(c),
0.493 0.222 0.264 0.2557 -0.234 0.0355
0.58 0.4521 0.253 0.436 0.1868 0.0288 pengujian dengan jumlah hidden 5 memiliki nilai
0.518 0.535 0.083 0.2135 -0.219 0.4158 akurasi yang lebih baik dari pada pengujian
0.594 0.088 0.249 -0.006 -0.31 0.2963 menggunakan hidden 6, 7, dan 8 yaitu 43.27%
Bias Input Ke Hidden Hasil Training dan jumlah iterasi sebanyak 4500. Dari ke-3 tabel
-0.29 -0.205 0.02 0.0784 0.1885 0.3498 di atas dapat disimpulkan bahwa pengujian
Bobot Hidden Ke Output Hasil Training dengan menggunakan hidden 5 dan target error
1.086 0.6341 0.238 0.2438 -0.986 -0.1135
Bias Hidden Ke Output Hasil Training
0.0072 memiliki nilai akurasi yang lebih baik
-1.67 dibandingkan dengan pengujian lainnya yaitu
43.27%.
Setelah tahap tranning, tahap berikutnya Pada tabel 5 dapat dilihat bahwa target error
adalah pengujian. Tahap pengujian digunakan yang berbeda akan menghasilkan jumlah iterasi
untuk menguji validasi data yang telah dilakukan yang berbeda pula. Semakin kecil target error,
pada proses training dengan memasukkan data maka jumlah iterasi akan semakin besar. Pada
baru yang belum pernah dilatih sebelumnya tabel 5 dapat dilihat juga bahwa jumlah hidden
untuk mengetahui keakurasian dari sistem yang yang berbeda maka jumlah iterasi juga berbeda.
telah dibuat. Data tahun 2009 – 2012 digunakan Jumlah hidden layer yang lebih besar tidak selalu
sebagai data pengujian. Pengujian dilakukan menyebabkan jumlah iterasi meningkat.
dengan memvariasikan jumlah hidden layer dan Tahap terakhir yaitu melakukan prediksi
memvariasikan nilai target error. Hasil pengujian curah hujan untuk beberapa tahun berikutnya
dapat dilihat pada tabel 5. dengan mengambil nilai akurasi tertinggi dari
hasil pengujian yaitu 43.27%. Tahap prediksi
Tabel 5(a). Hasil Pengujian dengan Target curah hujan di kota Medan menggunakan metode
Error 0.01 backpropagation neural network menggunakan
Jumlah Kuadrat Iterasi Akurasi data Input Tahun 2005 sampai 2012. Hasil
Hidden Error prediksi curah hujan di kota Medan dapat dilihat
5 0.0099 70 26.44 % pada tabel 6.
6 0.0099 66 26.27 %
7 0.0099 62 22.48 %
8 0.0099 76 21.71 %

188
Seminar Nasional Informatika 2014

Tabel 6. Hasil Prediksi Curah hujan di Kota 5. Pada hasil prediksi rata-rata curah hujan
Medan tertinggi pada tahun 2013 terjadi pada bulan 5
yaitu 315.8.
Tahun 2013 2014 2015 2016 2017 Daftar Pustaka
Bulan
1 122.7 143 153 168.9 154.3
2 108.3 86.4 98.9 109.7 104 [1] Ihwan, Andi, 2013, Metode Jaringan Saraf
3 153.2 141 176.5 204.1 179.2 Tiruan Propagasi Balik untuk Estimasi
4 211.4 195.9 163 158.7 143.4 Curah Hujan Bulanan di Ketapang
5 315.8 281.4 227.6 231.8 170 Kalimantan Barat, Prosiding Semirata
6 138.3 110.1 117.4 133.2 143.9
7 189.1 225.9 197.5 175.9 173
FMIPA Universitas Lampung.
8 154.4 157.5 196.9 247.2 249.4 [2] Naik, Arti R. and S.K.Pathan, 2012,
9 254.3 227.2 239.8 208.3 162.5 Weather Classification and Forecasting
10 290 264.2 244.2 214.6 211.9 using Back Propagation Feed-forward
11 224.3 289 228.6 172.9 197.8 Neural Network, International Journal of
12 238 196.2 162.6 129.3 160.4
Scientific and Research Publications,
Volume 2, Issue 12, December.
Pada tabel 6 dapat dilihat bahwa rata-rata [3] Oktaviani, Cici dan Afdal, 2013, Prediksi
curah hujan tertinggi pada tahun 2013 terjadi pada Curah Hujan Bulanan Menggunakan
bulan 5, tahun 2014 terjadi pada bulan 11, tahun Jaringan Syaraf Tiruan dengan Beberapa
2015 terjadi pada bulan 10, tahun 2016 terjadi Fungsi Pelatihan Backpropagation, Jurnal
pada bulan 8, dan tahun 2017 terjadi pada bulan Fisika Unand, Vol. 2, No. 4, Oktober.
8. [4] Pai, Maya L., et al, 2014, Long Range
Forecast on South West Monsoon Rainfall
4. Kesimpulan using Artificial Neural Networks based on
Clustering Approach, I.J. Information
Dari hasil penelitian dapat diambil beberapa Technology and Computer Science, 2014,
kesimpulan antara lain: 07, 1-8.
1. Pengujian dengan hidden 5 memiliki akurasi [5] Pratiwi, Dian, et al, (2011), An Application
yang lebih baik dibandingkan dengan hidden Of Backpropagation Artificial Neural
6, 7, dan 8. Network Method for Measuring The
2. Nilai akurasi tertinggi di dapat dari pengujian Severity of Osteoarthritis, International
data dengan jumlah hidden 5 dan target error Journal of Engineering & Technology IJET-
0.0072 yaitu 43.27 %. IJENS, Vol: 11 No: 03.
3. Target error yang berbeda akan menghasilkan [6] Sutojo, T., et al, 2010, Kecerdasan Buatan,
jumlah iterasi yang berbeda pula. Semakin Yogyakarta: Andi Offset.
kecil target error, maka jumlah iterasi akan
semakin besar.
4. Jumlah hidden yang berbeda maka jumlah
iterasi juga berbeda. Jumlah hidden layer yang
lebih besar tidak selalu menyebabkan jumlah
iterasi meningkat.

189

Anda mungkin juga menyukai