Anda di halaman 1dari 6

PREDIKSI CURAH HUJAN DI KOTA MEDAN MENGGUNAKAN

METODE BACKPROPAGATION NEURAL NETWORK


Yudhi Andrian1, Erlinda Ningsih2
1
Dosen Teknik Informatika, STMIK Potensi Utama
2
Mahasiswa Sistem Informasi, STMIK Potensi Utama
1,2
STMIK Potensi Utama, Jl. K.L. Yos Sudarso Km 6,5 No. 3A Tanjung Mulia-Medan
1
yudhi.andrian@gmail.com, 2erlinda.301093@gmail.com

Abstrak

Besarnya curah hujan yang terjadi tidak dapat ditentukan secara pasti, namun dapat diprediksi atau diperkirakan.
Dengan menggunakan data historis besarnya curah hujan beberapa waktu yang lampau, maka dapat diprediksi
berapa besarnya curah hujan yang terjadi pada masa yang akan datang. Jaringan saraf tiruan (Artificial Neural
Network) sebagian besar telah cukup handal dalam pemecahan masalah, salah satunya adalah prediksi curah
hujan dengan metode backpropagation. Pada penelitian ini, penulis mencoba memprediksi curah hujan di kota
medan menggunakan metode backpropagation neural network. Dari hasil penelitian dapat disimpulkan antara
lain : Pengujian dengan hidden 5 memiliki akurasi yang lebih baik dibandingkan dengan hidden 6, 7, dan 8. Nilai
akurasi tertinggi di dapat dari pengujian data dengan jumlah hidden 5 dan target error 0.0072 yaitu 43.27 %.
Semakin kecil target error, maka jumlah iterasi akan semakin besar. hidden layer yang lebih besar tidak selalu
menyebabkan jumlah iterasi meningkat.

Kata kunci : Prediksi curah hujan, backpropagation, neural network.

1. Pendahuluan linier. Neuron saling terhubung satu sama lain


melalui suatu jaringan. Jaringan ini yang dilatih
Secara umum pola musim di Indonesia dikenal menggunakan algoritma backpropagation yang
dengan pola Monsun. Pola monsun ini sangat mengikuti Gradient Descent Method [2].
dipengaruhi oleh angin monsun yang menghasilkan Pai, Maya L., et al. (2014) mengungkapkan
dua musim yakni musim hujan dan musim kemarau. bahwa parameter laut sangat mempengaruhi dalam
Puncak musim hujan terjadi pada bulan Desember, memprediksi curah hujan monsun barat selatan
Januari dan Februari sedangkan puncak musim menggunakan teknik jaringan saraf tiruan. Hasil
kemarau terjadi pada bulan Juni, Juli dan Agustus penelitian menunjukan bahwa metode JST dapat
[1]. Kondisi cuaca sangat berpengaruh dalam diterapkan dalam memprediksi curah hujan [4].
kehidupan sehari-hari, seperti dalam bidang Pratiwi, Dian, et al. (2011) menggunakan
pertanian, transportasi dan industri. Maka dari itu metode backpropagation untuk memprediksi
pengamatan terhadap kondisi cuaca, khususnya keparahan penyakit osteoarthritis. Penggunaan
kondisi curah hujan sangat penting dilakukan [3]. metode backpropagation neural network terbukti
Besarnya curah hujan yang terjadi tidak dapat sebagai salah satu metode untuk mengklasifikasikan
ditentukan secara pasti, namun dapat diprediksi atau atau memprediksi keparahan penyakit osteoarthritis
diperkirakan. Dengan menggunakan data historis berdasarkan warna dan tekstur dengan persentase
besarnya curah hujan beberapa waktu yang lampau, akurasi 66,6% [5].
maka dapat diprediksi berapa besarnya curah hujan Masing-masing metode yang telah dijelaskan di
yang terjadi pada masa yang akan datang. Banyak atas dapat diterapkan dalam memprediksi suatu
cara yang dapat dilakukan untuk memprediksi keadaan yang akan datang. Pada penelitian ini
besarnya curah hujan di suatu tempat, salah satunya penulis mencoba memprediksi curah hujan di Kota
adalah menggunakan teknik jaringan syaraf tiruan Medan dengan metode backpropagation neural
(Artificial Neural Network)[3]. network dengan menggunakan data curah hujan
Jaringan Saraf Tiruan (Artificial Neural tahun 1997 – 2012. Penelitian ini bertujuan untuk
Network) sebagian besar telah cukup handal selama mengetahui jumlah hidden layer dan target error
beberapa tahun terakhir dalam pemecahan masalah. yang tepat untuk digunakan dalam memprediski
Jaringan saraf tiruan menyediakan metodologi yang curah hujan di kota Medan sehingga menghasilkan
sangat handal dalam pemecahan masalah non-linier. akurasi yang lebih baik.
Jaringan saraf tiruan terinspirasi oleh otak manusia
di mana neuron saling interkoneksi secara non-
2. Neural Network f’ adalah turunan dari fungsi aktivasi.
Kemudian hitung korelasi bobot, ditunjukkan
Neural Network / Jaringan Saraf Tiruan (JST) dengan persamaan (6).
adalah paradigma pengolahan informasi yang ∆𝑤𝑗𝑘 = 𝛼𝛿𝑘 𝑧𝑗 (6)
terinspirasi oleh sistem saraf secara biologis, seperti Dan menghitung koreksi bias, ditunjukkan
proses informasi pada otak manusia. Elemen kunci dengan persamaan (7).
dari paradigma ini adalah struktur dari sistem ∆𝑤0𝑘 = 𝛼𝛿𝑘 (7)
pengolahan informasi yang terdiri dari sejumlah Sekaligus mengirimkan δk ke unit-unit yang
besar elemen pemrosesan yang saling berhubungan ada di lapisan paling kanan.
(neuron), bekerja serentak untuk menyelesaikan 2) Setiap unit tersembunyi (Zj, j=1,2,3,…,p)
masalah tertentu. menjumlahkan delta input-nya (dari unit-unit
Cara kerja JST seperti cara kerja manusia, yaitu yang berada pada lapisan di kanannya),
belajar melalui contoh. Lapisan-lapisan penyusun ditunjukkan dengan persamaan (8).
𝑚
JST dibagi menjadi 3, yaitu lapisan input (input
layer), lapisan tersembunyi (hidden layer), dan 𝛿_𝑖𝑛𝑗 = ∑ 𝛿𝑘 𝑤𝑗𝑘 (8)
lapisan output (ouput layer) [6]. 𝑘=1
Untuk menghitung informasi error, kalikan
3. Metode Backpropagation nilai ini dengan turunan dari fungsi
aktivasinya, ditunjukkan dengan persamaan
(9).
Arsitektur backpropagation merupakan salah
satu arsitektur jaringan saraf tiruan yang dapat 𝛿𝑗 = 𝛿𝑖𝑛 𝑗 𝑓 ′ (𝑧_𝑖𝑛𝑗 ) (9)
digunakan untuk mempelajari dan menganalisis pola Kemudian hitung koreksi bobot, ditunjukkan
data masa lalu lebih tepat sehingga diperoleh dengan persamaan (10).
keluaran yang lebih akurat (dengan kesalahan atau ∆𝑣𝑗𝑘 = 𝛼𝛿𝑗 𝑥𝑖 (10)
error minimum) [3]. Setelah itu, hitung juga koreksi bias,
Langkah-langkah dalam membangun algoritma ditunjukkan dengan persamaan (11).
backpropagation adalah sebagai berikut [6]: ∆𝑣0𝑗 = 𝛼𝛿𝑗 (11)
a. Inisialisasi bobot (ambil nilai random yang d. Tahap perubahan bobot dan bias
cukup kecil). 1) Setiap unit output (Yk, k=1,2,3,…,m)
b. Tahap perambatan maju (forward propagation) dilakukan perubahan bobot dan bias
1) Setiap unit input (X1, i=1,2,3,…,n) menerima (j=0,1,2,…,p), ditunjukkan dengan
sinyal xi dan meneruskan sinyal tersebut ke persamaan (12).
semua unit pada lapisan tersembunyi. 𝑤𝑗𝑘 (𝑏𝑎𝑟𝑢) = 𝑤𝑗𝑘 (𝑙𝑎𝑚𝑎) + ∆𝑤𝑗𝑘 (12)
2) Setiap unit tersembunyi (Z1, j=1,2,3,…,p) Setiap unit tersembunyi (Zj, j=1,2,3,…,p)
menjumlahkan bobot sinyal input, dilakukan perubahan bobot dan bias
ditunjukkan dengan persamaan (1). (i=0,1,2,…,n), ditunjukkan dengan
𝑛
persamaan (13).
𝑧_𝑖𝑛𝑗 = 𝑣0𝑗 + ∑ 𝑥𝑖 𝑣𝑖𝑗 (1) 𝑣𝑖𝑗 (𝑏𝑎𝑟𝑢) = 𝑣𝑖𝑗 (𝑙𝑎𝑚𝑎) + ∆𝑣𝑖𝑗 (13)
𝑖=1 2) Tes kondisi berhenti.
Dan menerapkan fungsi aktivasi untuk
menghitung sinyal output-nya, ditunjukkan
4. Metode Penelitian
dengan persamaan (2).
𝑧𝑗 = 𝑓(𝑧𝑖𝑛 𝑗 ) (2) Penelitian ini bertujuan untuk memprediksi
Fungsi aktivasi yang digunakan adalah fungsi curah hujan di Kota Medan menggunakan metode
sigmoid, kemudian mengirimkan sinyal backpropagation neural network. Penulis ingin
tersebut ke semua unit output. mengetahui apakah dengan menggunakan metode
3) Setiap unit output (Yk, k=1,2,3,…,m) backpropagation neural network dapat memprediksi
menjumlahkan bobot sinyal input, curah hujan di kota Medan dengan akurasi yang
ditunjukkan dengan persamaan (3). lebih baik.
𝑝
𝑦_𝑖𝑛𝑘 = 𝑤0𝑘 + ∑𝑖=1 𝑧𝑖 𝑤𝑗𝑘 (3) Untuk mencapai tujuan tersebut, penulis akan
Dan menerapkan fungsi aktivasi untuk melakukan pengujian dengan menggunakan data
menghitung sinyal output-nya, ditunjukkan sekunder curah hujan bulanan Kota Medan tahun
dengan persamaan (4). 1997 – 2012. Data bersumber dari BMKG Stasiun
𝑦𝑘 = 𝑓(𝑦_𝑖𝑛𝑘 ) (4) Polonia, Kota Medan.
c. Tahap perambatan balik (backpropagation) Prediksi curah hujan dengan backpropagation
1) Setiap unit output (Yk, k=1,2,3,…,m) neural network digunakan langkah-langkah sebagai
menerima pola target yang sesuai dengan berikut:
pola input pelatihan, kemudian hitung error, a. Memisahkan data yang akan digunakan sebagai
ditunjukkan dengan persamaan (5). data pelatihan dan data uji. Data curah hujan
𝛿𝑘 = (𝑡𝑘 − 𝑦𝑘 )𝑓′(𝑦𝑖𝑛 𝑘 ) (5) tahun 1997 – 2008 akan digunakan sebagai data
pelatihan selama perancangan JST sedangkan dalam memprediksi data curah hujan pada tahun
data tahun 2009 – 2012 digunakan sebagi data tertentu. Sedangkan prediksi bertujuan untuk
pengujian. memprediksi data curah hujan yang akan datang.
b. Desain JST
Desain JST dilakukan untuk prediksi curah hujan 5. Hasil dan Analisa
bulanan dimulai dengan menentukan banyaknya
data masukan yang digunakan, banyaknya layar Untuk mengetahui apakah aplikasi yang dibuat
tersembunyi (hidden layer) yang digunakan, dan telah berjalan dengan baik, maka dilakukan
banyaknya keluaran yang diinginkan. Data yang pengujian. Data curah hujan tahun 1997 – 2008
digunakan sebagai masukan sebanyak 8 data (8 akan digunakan sebagai data pelatihan sedangkan
tahun) dan data keluaran atau target adalah data data tahun 2009 – 2012 digunakan sebagai data
pada tahun ke-9 (data input 1997 – 2004 dengan pengujian. Proses yang ditempuh untuk prediksi
target 2005). Untuk mengetahui curah hujan curah hujan menggunakan backpropagation neural
pada tahun ke-10 maka data masukannya network meliputi tahap training, tahap pengujian dan
merupakan data pada tahun ke-2 sampai tahun tahap prediksi. Tabel 1 merupakan input data curah
ke-9 (data input 1998 – 2005 dengan target hujan tahun 1997 – 2008.
2006), demikian seterusnya. Desain JST prediksi
curah hujan dapat dilihat pada gambar 1. Tabel 1(a). Data Input Tahun 1997 sampai 2004
dengan Target 2005
Input Layer Hidden Layer Output Layer
1997 1998 1999 2000 2001 2002 2003 2004 2005
106.8 181 315 59 216.5 90.8 169.4 138.8 189.1
96.9 50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9
x1 134.4 29,4 196.6 182.2 158 96.5 162.6 237.9 62.5
109.8 35.3 322 115 164.8 73.4 285.3 88.5 168.2
80.9 133.5 302.6 60.3 252.8 195.2 245.7 68 229.5
175.3 144.6 256.2 191.1 306.7 191.7 196.3 200.5 174
x2 v1 225.8 213 29.9 121.9 121.3 139.2 312.1 206.8 210.8
95.7 381 78.6 342.6 417.6 156.3 282 204.3 145.7
290.6 170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5
391.1 340.3 204.1 367.5 733 363.8 471.9 377.5 175.5
265.4 275.8 126.4 108 467.6 164.3 125.4 141.2 206.4
x3 v2 182.4 394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4

Tabel 1(b). Data Input Tahun 1998 sampai 2005


x4 v3 dengan Target 2006
y1 1998 1999 2000 2001 2002 2003 2004 2005 2006
181 315 59 216.5 90.8 169.4 138.8 189.1 103.9
x5 v4 50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5
29,4 196.6 182.2 158 96.5 162.6 237.9 62.5 121.2
35.3 322 115 164.8 73.4 285.3 88.5 168.2 225.5
133.5 302.6 60.3 252.8 195.2 245.7 68 229.5 300.5
144.6 256.2 191.1 306.7 191.7 196.3 200.5 174 251.4
x6 v5 213 29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1
381 78.6 342.6 417.6 156.3 282 204.3 145.7 148.3
170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6
340.3 204.1 367.5 733 363.8 471.9 377.5 175.5 271.4
x7 v6 275.8 126.4 108 467.6 164.3 125.4 141.2 206.4 148.4
394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6

Tabel 1(c). Data Input Tahun 1999 sampai 2006


x8
dengan Target 2007

1999 2000 2001 2002 2003 2004 2005 2006 2007


Gambar 1. Desain Backpropagation Neural 315 59 216.5 90.8 169.4 138.8 189.1 103.9 169.6
268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6
Network 196.6 182.2 158 96.5 162.6 237.9 62.5 121.2 62.3
c. Pengenalan pola (pelatihan) 322 115 164.8 73.4 285.3 88.5 168.2 225.5 277.2
302.6 60.3 252.8 195.2 245.7 68 229.5 300.5 330.2
Pengenalan pola dilakukan dengan cara 256.2 191.1 306.7 191.7 196.3 200.5 174 251.4 99.4
29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6
penyesuaian nilai bobot. Penghentian 78.6 342.6 417.6 156.3 282 204.3 145.7 148.3 153.4
penyesuaian bobot dalam pengenalan pola 407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5
204.1 367.5 733 363.8 471.9 377.5 175.5 271.4 303.3
apabila error yang dihasilkan mencapai target 126.4 108 467.6 164.3 125.4 141.2 206.4 148.4 374.1
error. Error dihitung setelah tahapan forward 456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4
propagation. Apabila error lebih besar dari
target error maka pelatihan akan dilanjutkan ke Tabel 1(d). Data Input Tahun 2000 sampai 2007
tahap backward propagation sampai error yang dengan Target 2008
dihasilkan mencapai target error.
2000 2001 2002 2003 2004 2005 2006 2007 2008
d. Pengujian dan prediksi 59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 126.7
Pengujian dilakukan bertujuan untuk mengetahui 86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 16.2
182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 126.8
tingkat keakuratan sistem JST yang telah dibuat 115 164.8 73.4 285.3 88.5 168.2 225.5 277.2 146
60.3 252.8 195.2 245.7 68 229.5 300.5 330.2 172.5
191.1 306.7 191.7 196.3 200.5 174 251.4 99.4 62
Tabel 2(d). Data Hasil Normalisasi Tahun 2000
121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6 276.8 sampai 2007 dengan Target 2008
342.6 417.6 156.3 282 204.3 145.7 148.3 153.4 195.7
451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5 294.8
2000 2001 2002 2003 2004 2005 2006 2007 2008
367.5 733 363.8 471.9 377.5 175.5 271.4 303.3 342.2 0.1557 0.3296 0.1908 0.2776 0.2438 0.2993 0.2052 0.2778 0.2304
108 467.6 164.3 125.4 141.2 206.4 148.4 374.1 412.5 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 0.2346 0.1 0.1084
173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4 245.7 0.2917 0.265 0.1971 0.2701 0.3532 0.1595 0.2244 0.1593 0.2305
0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 0.3362 0.3966 0.2517
0.1571 0.3697 0.3061 0.3618 0.1656 0.344 0.4224 0.4552 0.281
Sebelum diproses data-data input tersebut akan 0.3015
0.2251
0.4292
0.2245
0.3022
0.2442
0.3072
0.4352
0.3119
0.3189
0.2827
0.3233
0.3682
0.211
0.2003
0.3794
0.159
0.3962
dinormalisasi. Normalisasi terhadap data dilakukan 0.4689
0.5887
0.5517
0.5275
0.2631
0.5129
0.4019
0.7106
0.3161
0.6154
0.2514
0.4113
0.2543
0.5163
0.2599
0.3738
0.3066
0.4161
agar keluaran jaringan sesuai dengan fungsi aktivasi 0.4964
0.2098
0.9
0.6069
0.4923
0.2719
0.6117
0.229
0.5074
0.2464
0.2843
0.3184
0.3902
0.2544
0.4255
0.5036
0.4684
0.5461
yang digunakan. Data-data tersebut dinormalisasi 0.2822 0.4687 0.2034 0.2978 0.2743 0.4344 0.4733 0.3317 0.3618

dalam interval [0, 1] karena dalam prediksi curah


hujan, nilai curah hujan pasti bernilai positif atau 0. Setelah data dinormalisasi, maka akan di
Selain itu juga terkait fungsi aktivasi yang diberikan generate nilai bobot input ke hidden awal, bias input
yaitu sigmoid biner. ke hidden, bobot hidden ke output, dan bias hidden
Fungsi sigmoid adalah fungsi asimtotik (tidak ke output. Data bobot digenerate secara acak antara
pernah mencapai 0 ataupun 1) maka transformasi 0 sampai dengan 1. Tabel 3 menunjukkan hasil
data hendaknya dilakukan pada interval yang lebih generate nilai bobot.
kecil yaitu [0.1, 0.8], ditunjukkan dengan persamaan
(14). Tabel 3. Hasil generate Nilai Bobot
0.8(𝑥 − 𝑎) (14)
Bobot Input Ke Hidden Awal
𝑥′ = + 0.1 0.3528 0.2667 0.2898 0.1448 0.151 0.3874
𝑏−𝑎 0.007 0.3804 0.4072 0.3545 0.0227 0.207
a adalah data minimum, b adalah data maksimum, x 0.4313 0.3952 0.1868 0.481 0.4357 0.0281
adalah data yang akan dinormalisasi dan x’ adalah 0.4748 0.182 0.2624 0.3836 0.0268 0.2962
data yang telah ditransformasi. Tabel 2 merupakan 0.2344 0.1491 0.3113 0.3239 0.1319 0.1397
hasil normalisasi data input. 0.4149 0.4123 0.2946 0.493 0.4555 0.1134
0.3476 0.49 0.122 0.2669 0.0532 0.4997
0.3381 0.0079 0.2876 0.05 0.0515 0.3994
Tabel 2(a). Data Hasil Normalisasi Tahun 1997 Bias Input Ke Hidden
sampai 2004 dengan Target 2005 0.1422 0.0228 0.1479 0.191 0.1505 0.4743
Bobot Hidden ke Output
1997 1998 1999 2000 2001 2002 2003 2004 2005
0.2078 0.2904 0.4384 0.1557 0.3296 0.1908 0.2776 0.2438 0.2993
0.4899 0.2007 0.1391 0.0802 0.0814 0.3233
0.1972 0.1459 0.3874 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 Bias Hidden ke Output
0.2389 0.123 0.308 0.2917 0.265 0.1971 0.2701 0.3532 0.1595
0.2118 0.1295 0.4461 0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 0.367
0.1798 0.2379 0.4247 0.1571 0.3697 0.3061 0.3618 0.1656 0.344
0.2841 0.2502 0.3734 0.3015 0.4292 0.3022 0.3072 0.3119 0.2827
0.3399
0.1962
0.3257
0.5113
0.1235
0.1773
0.2251
0.4689
0.2245
0.5517
0.2442
0.2631
0.4352
0.4019
0.3189
0.3161
0.3233
0.2514
Tahap selanjutnya adalah trainning. Proses
0.4114 0.2791 0.5402 0.5887 0.5275 0.5129 0.7106 0.6154 0.4113 training dilakukan sampai error yang dihasilkan
0.5224 0.4663 0.3159 0.4964 0.9 0.4923 0.6117 0.5074 0.2843
0.3836 0.3951 0.2301 0.2098 0.6069 0.2719 0.229 0.2464 0.3184 sesuai atau lebih kecil dari target error. Gambar 2
0.2919 0.5258 0.5944 0.2822 0.4687 0.2034 0.2978 0.2743 0.4344
merupakan grafik penurunan kuadrat error hasil
training dengan target error 0.01 dan jumlah hidden
Tabel 2(b). Data Hasil Normalisasi Tahun 1998
layer 6.
sampai 2005 dengan Target 2006
1998 1999 2000 2001 2002 2003 2004 2005 2006
0.2904 0.4384 0.1557 0.3296 0.1908 0.2776 0.2438 0.2993 0.2052
0.1459 0.3874 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 0.2346
0.123 0.308 0.2917 0.265 0.1971 0.2701 0.3532 0.1595 0.2244
0.1295 0.4461 0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 0.3362
0.2379 0.4247 0.1571 0.3697 0.3061 0.3618 0.1656 0.344 0.4224
0.2502 0.3734 0.3015 0.4292 0.3022 0.3072 0.3119 0.2827 0.3682
0.3257 0.1235 0.2251 0.2245 0.2442 0.4352 0.3189 0.3233 0.211
0.5113 0.1773 0.4689 0.5517 0.2631 0.4019 0.3161 0.2514 0.2543
0.2791 0.5402 0.5887 0.5275 0.5129 0.7106 0.6154 0.4113 0.5163
0.4663 0.3159 0.4964 0.9 0.4923 0.6117 0.5074 0.2843 0.3902
0.3951 0.2301 0.2098 0.6069 0.2719 0.229 0.2464 0.3184 0.2544
0.5258 0.5944 0.2822 0.4687 0.2034 0.2978 0.2743 0.4344 0.4733

Tabel 2(c). Data Hasil Normalisasi Tahun 1999


sampai 2006 dengan Target 2007 Gambar 2. Grafik Penurunan Kuadrat Error
Pada gambar 1 dapat dilihat bahwa penurunan
1999 2000 2001 2002 2003 2004 2005 2006 2007
0.4384 0.1557 0.3296 0.1908 0.2776 0.2438 0.2993 0.2052 0.2778 kuadrat error berhenti dan mencapai target error
0.3874 0.1863 0.1072 0.1772 0.1851 0.3123 0.139 0.2346 0.1
0.308 0.2917 0.265 0.1971 0.2701 0.3532 0.1595 0.2244 0.1593 0.01 dengan jumlah iterasi sebanyak 66. Proses
0.4461 0.2175 0.2725 0.1716 0.4056 0.1882 0.2763 0.3362 0.3966
0.4247 0.1571 0.3697 0.3061 0.3618 0.1656 0.344 0.4224 0.4552 trainning akan memperbaiki bobot nilai random.
0.3734
0.1235
0.3015
0.2251
0.4292
0.2245
0.3022
0.2442
0.3072
0.4352
0.3119
0.3189
0.2827
0.3233
0.3682
0.211
0.2003
0.3794
Hasil bobot yang telah diperbaiki melalui proses
0.1773
0.5402
0.4689
0.5887
0.5517
0.5275
0.2631
0.5129
0.4019
0.7106
0.3161
0.6154
0.2514
0.4113
0.2543
0.5163
0.2599
0.3738
training ditunjukkan pada tabel 4. Pada tabel 4 dapat
0.3159 0.4964 0.9 0.4923 0.6117 0.5074 0.2843 0.3902 0.4255 dilihat bahwa semua nilai bobot telah berubah.
0.2301 0.2098 0.6069 0.2719 0.229 0.2464 0.3184 0.2544 0.5036
0.5944 0.2822 0.4687 0.2034 0.2978 0.2743 0.4344 0.4733 0.3317
Tabel 4. Nilai Bobot Hasil Training Pada tabel 5(b), pengujian dengan jumlah hidden 5
Bobot Input Ke Hidden Hasil Training memiliki nilai akurasi yang lebih baik dari pada
0.375 0.2489 0.243 0.0915 0.0151 0.3219 pengujian menggunakan hidden 6, 7, dan 8 yaitu
0.507 0.5646 0.385 0.3017 -0.555 0.0807 42.79% dan jumlah iterasi sebanyak 160. Pada tabel
0.797 0.5195 0.149 0.4197 -0.04 -0.0942
0.764 0.2667 0.216 0.3144 -0.367 0.1891
5(c), pengujian dengan jumlah hidden 5 memiliki
0.493 0.222 0.264 0.2557 -0.234 0.0355 nilai akurasi yang lebih baik dari pada pengujian
0.58 0.4521 0.253 0.436 0.1868 0.0288 menggunakan hidden 6, 7, dan 8 yaitu 43.27% dan
0.518 0.535 0.083 0.2135 -0.219 0.4158 jumlah iterasi sebanyak 4500. Dari ke-3 tabel di atas
0.594 0.088 0.249 -0.006 -0.31 0.2963 dapat disimpulkan bahwa pengujian dengan
Bias Input Ke Hidden Hasil Training
menggunakan hidden 5 dan target error 0.0072
-0.29 -0.205 0.02 0.0784 0.1885 0.3498
memiliki nilai akurasi yang lebih baik dibandingkan
Bobot Hidden Ke Output Hasil Training
1.086 0.6341 0.238 0.2438 -0.986 -0.1135 dengan pengujian lainnya yaitu 43.27%.
Bias Hidden Ke Output Hasil Training Pada tabel 5 dapat dilihat bahwa target error
-1.67 yang berbeda akan menghasilkan jumlah iterasi yang
berbeda pula. Semakin kecil target error, maka
Setelah tahap tranning, tahap berikutnya adalah jumlah iterasi akan semakin besar. Pada tabel 5
pengujian. Tahap pengujian digunakan untuk dapat dilihat juga bahwa jumlah hidden yang
menguji validasi data yang telah dilakukan pada berbeda maka jumlah iterasi juga berbeda. Jumlah
proses training dengan memasukkan data baru yang hidden layer yang lebih besar tidak selalu
belum pernah dilatih sebelumnya untuk mengetahui menyebabkan jumlah iterasi meningkat.
keakurasian dari sistem yang telah dibuat. Data Tahap terakhir yaitu melakukan prediksi curah
tahun 2009 – 2012 digunakan sebagai data hujan untuk beberapa tahun berikutnya dengan
pengujian. Pengujian dilakukan dengan mengambil nilai akurasi tertinggi dari hasil
memvariasikan jumlah hidden layer dan pengujian yaitu 43.27%. Tahap prediksi curah hujan
memvariasikan nilai target error. Hasil pengujian di kota Medan menggunakan metode
dapat dilihat pada tabel 5. backpropagation neural network menggunakan data
Input Tahun 2005 sampai 2012. Hasil prediksi curah
Tabel 5(a). Hasil Pengujian dengan Target Error hujan di kota Medan dapat dilihat pada tabel 6.
0.01
Jumlah Kuadrat Iterasi Akurasi Tabel 6. Hasil Prediksi Curah hujan di Kota Medan
Hidden Error
5 0.0099 70 26.44 % Tahun
2013 2014 2015 2016 2017
Bulan
6 0.0099 66 26.27 % 1 122.7 143 153 168.9 154.3
7 0.0099 62 22.48 % 2 108.3 86.4 98.9 109.7 104
8 0.0099 76 21.71 % 3 153.2 141 176.5 204.1 179.2
4 211.4 195.9 163 158.7 143.4
5 315.8 281.4 227.6 231.8 170
Tabel 5(b). Hasil Pengujian dengan Target Error
6 138.3 110.1 117.4 133.2 143.9
0.008 7 189.1 225.9 197.5 175.9 173
8 154.4 157.5 196.9 247.2 249.4
Jumlah Kuadrat Iterasi Akurasi 9 254.3 227.2 239.8 208.3 162.5
Hidden Error 10 290 264.2 244.2 214.6 211.9
11 224.3 289 228.6 172.9 197.8
5 0.0079 160 42.79 %
12 238 196.2 162.6 129.3 160.4
6 0.0079 186 42.35 %
7 0.0079 218 41 % Pada tabel 6 dapat dilihat bahwa rata-rata curah
8 0.0079 241 41.21 % hujan tertinggi pada tahun 2013 terjadi pada bulan 5,
tahun 2014 terjadi pada bulan 11, tahun 2015 terjadi
Tabel 5(c). Hasil Pengujian dengan Target Error pada bulan 10, tahun 2016 terjadi pada bulan 8, dan
0.0072 tahun 2017 terjadi pada bulan 8.

Jumlah Kuadrat Iterasi Akurasi 6. Kesimpulan


Hidden Error
5 0.0072 4500 43.27 % Dari hasil penelitian dapat diambil beberapa
6 0.0072 4500 43.21 % kesimpulan antara lain:
7 0.0072 2000 42.88 % 1. Pengujian dengan hidden 5 memiliki akurasi
8 0.0072 3000 43.4 % yang lebih baik dibandingkan dengan hidden 6,
7, dan 8.
Pada tabel 5(a), dapat dilihat bahwa pengujian 2. Nilai akurasi tertinggi di dapat dari pengujian
dengan jumlah hidden 5 memiliki akurasi yang lebih data dengan jumlah hidden 5 dan target error
baik dari pada pengujian menggunakan hidden 6, 7, 0.0072 yaitu 43.27 %.
dan 8 yaitu 26.44% dan jumlah iterasi sebanyak 70.
3. Target error yang berbeda akan menghasilkan
jumlah iterasi yang berbeda pula. Semakin kecil
target error, maka jumlah iterasi akan semakin
besar.
4. Jumlah hidden yang berbeda maka jumlah iterasi
juga berbeda. Jumlah hidden layer yang lebih
besar tidak selalu menyebabkan jumlah iterasi
meningkat.
5. Pada hasil prediksi rata-rata curah hujan tertinggi
pada tahun 2013 terjadi pada bulan 5 yaitu 315.8.

Daftar Pustaka

[1] Ihwan, Andi, 2013, Metode Jaringan Saraf


Tiruan Propagasi Balik untuk Estimasi Curah
Hujan Bulanan di Ketapang Kalimantan
Barat, Prosiding Semirata FMIPA
Universitas Lampung.
[2] Naik, Arti R. and S.K.Pathan, 2012, Weather
Classification and Forecasting using Back
Propagation Feed-forward Neural Network,
International Journal of Scientific and
Research Publications, Volume 2, Issue 12,
December.
[3] Oktaviani, Cici dan Afdal, 2013, Prediksi
Curah Hujan Bulanan Menggunakan
Jaringan Syaraf Tiruan dengan Beberapa
Fungsi Pelatihan Backpropagation, Jurnal
Fisika Unand, Vol. 2, No. 4, Oktober.
[4] Pai, Maya L., et al, 2014, Long Range
Forecast on South West Monsoon Rainfall
using Artificial Neural Networks based on
Clustering Approach, I.J. Information
Technology and Computer Science, 2014, 07,
1-8.
[5] Pratiwi, Dian, et al, (2011), An Application Of
Backpropagation Artificial Neural Network
Method for Measuring The Severity of
Osteoarthritis, International Journal of
Engineering & Technology IJET-IJENS, Vol:
11 No: 03.
[6] Sutojo, T., et al, 2010, Kecerdasan Buatan,
Yogyakarta: Andi Offset.

Anda mungkin juga menyukai