Anda di halaman 1dari 204

PREDIKSI SUHU UDARA DI YOGYAKARTA

DENGAN MODEL NEURO-FUZZY

SKRIPSI
Diajukan Kepada Fakultas Matematika dan Ilmu Pengetahuan Alam
Universitas Negeri Yogyakarta
untuk Memenuhi Sebagian Persyaratan guna Memperoleh Gelar Sarjana Sains

Oleh
Tiara Anggraeni
NIM 09305141013

PROGRAM STUDI MATEMATIKA


FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS NEGERI YOGYAKARTA
2013

PERSETUJUAN

Skripsi yang berjudul:

PREDIKSI SUHU UDARA DI YOGYAKARTA


DENGAN MODEL NEURO FUZZY

Oleh:
Tiara Anggraeni
NIM. 09305141013

Telah disetujui pada tanggal 24 September 2013


untuk diujikan di hadapan dewan penguji Skripsi
Program Studi Matematika
Jurusan Pendidikan Matematika
Fakultas Matematika dan Ilmu Pengetahuan Alam
Universitas Negeri Yogyakarta

Menyetujui,
Dosen Pembimbing

Dr. Agus Maman Abadi, M.Si


NIP. 19700828 199502 1 001

ii

HALAMAN PENGESAHAN
Skripsi yang berjudul:
PREDIKSI SUHU UDARA DI YOGYAKARTA DENGAN MODEL
NEURO FUZZY
Yang disusun oleh:
Nama : Tiara Anggraeni
NIM : 09305141013
Prodi : Matematika
Skripsi ini telah diujikan di depan Dewan Penguji Skripsi pada tanggal 1 Oktober
2013 dan dinyatakan LULUS.
DEWAN PENGUJI
Nama

Jabatan

Tanda Tangan

Tanggal

Dr. Agus Maman Abadi


Ketua Penguji
NIP. 197008281995021001

.................................. .....................

Rosita K., M.Sc.


Sekretaris Penguji
NIP. 198007072005012001

.................................. .....................

Dr. Dhoriva U.W.


Penguji Utama
NIP. 196603311993032001

.................................. .....................

Fitriana Y.S., M.Si.


Penguji Pendamping .................................. .....................
NIP. 198407072008012003
Yogyakarta, Oktober 2013
Fakultas Matematika dan
Ilmu Pengetahuan Alam
Universitas Negeri Yogyakarta
Dekan,

Dr. Hartono
NIP. 196203291987021002

iii

HALAMAN PERNYATAAN
Yang bertanda tangan di bawah ini, saya:
Nama

: Tiara Anggraeni

NIM

: 09305141013

Program Studi : Matematika


Fakultas

: Matematika dan Ilmu Pengetahuan Alam

Judul Skripsi

: PREDIKSI SUHU UDARA DI YOGYAKARTA DENGAN


MODEL NEURO FUZZY

Menyatakan bahwa skripsi ini benar-benar karya saya sendiri dan sepanjang
pengetahuan saya, tidak terdapat karya atau pendapat yang ditulis atau diterbitkan
orang lain, kecuali pada bagian-bagian tertentu yang diambil sebagai acuan atau
kutipan dengan mengikuti tata penulisan karya ilmiah yang telah lazim.
Apabila ternyata terbukti pernyataan saya ini tidak benar, maka sepenuhnya
menjadi tanggung jawab saya, dan saya bersedia menerima sanksi sesuai
ketentuan yang berlaku.

Yogyakarta, 24 September 2013


Yang Menyatakan,

Tiara Anggraeni
NIM 09305141013

iv

MOTTO

Menjadi diri sendiri dan percaya diri


adalah kunci keberhasilan

Tindakan kita merupakan cermin dari tindakan


orang lain terhadap kita

HALAMAN PERSEMBAHAN
Alhamdulillah skripsi ini dapat diselesaikan. Skripsi ini dipersembahkan
untuk:
Semua orang tua-ku, terima kasih atas kasih sayang,
dukungan, doa sehingga aku diberi kemudahan, dan untuk
semua yang sudah diberikan yang tidak bisa disebutkan satu
persatu.
Semua guru-guruku yang telah memberikan ilmu dan
bimbingannya sehingga aku dapat menjadi sekarang ini.
Semua keluargaku, terimakasih atas dukungan dan doanya.
Anky Rakhmat Prasetya, terimakasih atas bantuan, doa,
waktu, sayang dan terimakasih sudah menjadi motivatorku
(thanks for everything).
Mbak Dwi (BMKG), terimakasih atas bimbingan dan waktu
yang sudah diberikan.
Temanku Sielvy, Nila, Ayu, Dita, Didi, Fika, Lala, Atit,
Vera, Zeni, Yudhi, Lulus, dan semua teman-teman kampus,
KKN, kos, organisasi dan sekolah yang tidak bisa disebutkan
satu persatu, terimakasih atas dukungan, doa dan bantuan
dalam menyelesaikan skripsi ini.

vi

PREDIKSI SUHU UDARA DI YOGYAKARTA


DENGAN MODEL NEURO FUZZY

Oleh:
Tiara Anggraeni
NIM 09305141013

ABSTRAK
Suhu udara merupakan salah satu faktor yang berpengaruh pada bidang
pertanian, kesehatan, pembangunan (proyek), global warming, dan lain-lain.
Prediksi suhu penting dilakukan untuk mengantisipasi hal buruk yang ditimbulkan
karena ketidaksesuaian suhu. Salah satu metode untuk prediksi suhu udara adalah
dengan model Neuro Fuzzy System (NFS) orde satu. Neuro Fuzzy merupakan
integrasi antara logika fuzzy dan jaringan syaraf tiruan. Penelitian ini bertujuan
untuk menjelaskan proses dan tingkat keakuratan dari pemodelan NFS orde satu,
NFS orde nol dan model ARIMA dalam memprediksi suhu udara di Yogyakarta.
Prediksi suhu udara pada penelitian ini menggunakan faktor suhu udara
dan kelembaban udara bulan-bulan sebelumnya. Langkah-langkah pemodelan
NFS adalah: (1) pemilihan variabel input dan output berdasarkan plot ACF dan
PACF dan membaginya menjadi training data (TRD) dan checking data (CHD),
(2) pengelompokkan (clustering) TRD menjadi 3 cluster, (3) pembelajaran
jaringan syaraf yang berhubungan dengan anteseden (bagian IF) pada aturanaturan inferensi fuzzy untuk mendapatkan nilai keanggotaan setiap data pada
anteseden, (4) pembelajaran jaringan syaraf yang berhubungan dengan konsekuen
(bagian THEN) pada aturan-aturan inferensi fuzzy. (5) penyederhanaan bagian
konsekuen dengan melakukan eliminasi pada variabel menggunakan jaringan
backpropagation dengan fungsi biaya SSE, digunakan untuk menentukan
parameter pada setiap cluster dengan metode Least Square Error (LSE) yang
bertujuan untuk memperbaiki bagian anteseden, (6) menentukan output akhir
jaringan dengan menghitung nilai MAPE dan MSE pada TRD dan CHD untuk
melihat kesesuaian target output dengan output jaringan.
Model terbaik dalam prediksi suhu udara dengan model NFS orde satu
adalah model dengan variabel input kelembaban 1 bulan sebelumnya, suhu udara
10 bulan, 7 bulan, 2 bulan dan 1 bulan sebelumnya dengan nilai MAPE untuk
TRD dan CHD berturut-turut sebesar 1,69% dan 2,54%. Selanjutnya model
tersebut digunakan untuk memprediksi suhu udara dalam enam bulan berikutnya
dengan nilai MAPE dan MSE berturut-turut 1,52% dan 0,056. Prediksi suhu udara
dengan NFS orde satu memberikan hasil lebih baik dibandingkan dengan model
NFS orde nol dan model ARIMA (0,0,1).
Kata Kunci : neuro fuzzy , prediksi, suhu udara

vii

KATA PENGANTAR

Syukur Alhamdulillah penulis panjatkan kepada Allah SWT yang telah


memberikan kesempatan, nikmat serta hidayah-Nya sehingga penulis dapat
menyelesaikan tugas akhir skripsi ini. Skripsi yang berjudul Prediksi Suhu Udara
Di Yogyakarta dengan Model Neuro Fuzzy disusun untuk memenuhi salah satu
syarat kelulusan guna meraih gelar Sarjana Sains pada Program Studi Matematika
dan Ilmu Pengetahuan Alam Universitas Negeri Yogyakarta.
Penyelesaian skripsi ini tidak akan terselesaikan tanpa bantuan,
bimbingan, saran dan dukungan dari berbagai pihak. Oleh karena itu, pada
kesempatan ini penulis mengucapkan terima kasih kepada:
1.

Bapak Dr. Hartono, M.Si, selaku Dekan Fakultas Matematika dan Ilmu
Pengetahuan Alam Universitas Negeri Yogyakarta yang telah memberikan
kelancaran pelayanan dalam urusan akademik.

2.

Bapak Dr. Sugiman, M.Si, selaku Ketua Jurusan Pendidikan Matematika


Universitas Negeri Yogyakarta yang telah memberikan kelancaran pelayanan
dalam urusan akademik.

3.

Bapak Dr. Agus Maman Abadi, M.Si, selaku Ketua Program Studi
Matematika Universitas Negeri Yogyakarta, Dosen Pembimbing serta
Penasehat Akademik yang telah dengan sabar memberikan arahan, bimbingan
dan motivasi kepada penulis.

4.

Drs. Bambang Suryo Santoso P., M.Si. selaku Kepala BMKG Yogyakarta
yang telah memberikan ijin pengambilan data untuk penelitian.

5.

Seluruh dosen Jurusan Pendidikan Matematikan Universitas Negeri


Yogyakarta yang telah memberikan ilmu dan pengajaran kepada penulis.
viii

6.

Seluruh pihak yang telah memberikan dukungan, bantuan dan motivasi


kepada penulis.
Penulis menyadari adanya ketidaktelitian, kekurangan dan kesalahan

dalam penulisan tugas akhir skripsi ini. Oleh karena itu, penulis menerima kritik
dan saran yang bersifat membangun. Semoga penulisan tugas akhir ini dapat
bermanfaat bagi pembaca dan pihak yang terkait.

\
Yogyakarta, 24 September 2013
Penulis

Tiara Anggraeni

ix

DAFTAR ISI
PERSETUJUAN ..................................................................................................... ii
HALAMAN PENGESAHAN................................................................................ iii
HALAMAN PERNYATAAN ............................................................................... iv
MOTTO ...................................................................................................................v
HALAMAN PERSEMBAHAN ............................................................................ vi
ABSTRAK ............................................................................................................ vii
KATA PENGANTAR ......................................................................................... viii
DAFTAR ISI ............................................................................................................x
DAFTAR GAMBAR ........................................................................................... xiii
DAFTAR TABEL ................................................................................................ xvi
DAFTAR SIMBOL............................................................................................ xviii
DAFTAR LAMPIRAN ..........................................................................................xx
BAB I PENDAHULUAN ........................................................................................1
A. Latar Belakang ..................................................................................................1
B. Pembatasan Masalah .........................................................................................5
C. Rumusan Masalah .............................................................................................5
D. Tujuan Penelitian ..............................................................................................6
E. Manfaat Penelitian ............................................................................................6
BAB II KAJIAN TEORI..........................................................................................7
A. Suhu Udara .......................................................................................................7
1. Pengertian Suhu .............................................................................................7
2. Faktor yang Mempengaruhi Suhu Udara.......................................................8
3. Penelitian Terdahulu ......................................................................................9
B. Himpunan Klasik (Crisp set ) .........................................................................11
C. Himpunan Fuzzy .............................................................................................12
1. Representasi Fungsi Keanggotaan ...............................................................15
2. Operator-operator Fuzzy ..............................................................................27
D. Logika Fuzzy ...................................................................................................29
E. Sistem Fuzzy ...................................................................................................29
Metode Takagi Sugeno Kang (TSK) ..................................................................30
F.

Jaringan Syaraf Tiruan (Artificial Neural Network) .......................................34


x

1. Komponen-komponen jaringan syaraf ........................................................34


2. Arsitektur jaringan syaraf ............................................................................37
3. Fungsi Aktivasi ............................................................................................38
4. Algoritma Pembelajaran ..............................................................................42
G. Neural Fuzzy System (NFS) ............................................................................48
1. Fuzzy C-Means (FCM) ................................................................................48
2. Jaringan Syaraf sebagai Pengendali Penalaran Fuzzy .................................50
3. Rule-Based Neural Fuzzy Modeling............................................................51
H. ARIMA ...........................................................................................................52
1. Fungsi Autokorelasi .....................................................................................52
2. Fungsi Autokorelasi Parsial .........................................................................54
3. Stasioneritas dan Nonstasioneritas ..............................................................54
4. Model Autoregressive Integrated Moving Average (ARIMA) ...................56
5. Proses White Noise ......................................................................................59
6. Prosedur Pemodelan ARIMA .......................................................................59
I.

MAPE dan MSE ............................................................................................63

BAB III METODE PENELITIAN.........................................................................64


A. Metode Penelitian ...........................................................................................64
B. Jenis dan Sumber Data Penelitian...................................................................64
C. Tekhnik Analisis Data Penelitian ...................................................................64
D. Desain Penelitian ............................................................................................64
BAB IV PEMBAHASAN ......................................................................................67
A. Sistem Neuro Fuzzy ........................................................................................67
1. Pemilihan variabel input-output dan data pelatihan ....................................67
2. Pengelompokan (clustering) data pelatihan ................................................68
3. Pembelajaran jaringan syaraf yang berhubungan dengan bagian
anteseden (bagian IF) pada aturan-aturan inferensi fuzzy ...........................68
4. Pembelajaran jaringan syaraf yang berhubungan dengan bagian
konsekuen (bagian THEN) pada aturan-aturan inferensi fuzzy. ...................68
5. Penyederhanaan bagian konsekuen (bagian THEN) menggunakan
metode backward. ........................................................................................69
6. Penentuan output akhir ................................................................................70
B. Aplikasi Model Sistem Neuro Fuzzy Untuk Memprediksi Suhu Udara .........70
xi

1. Model 1: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy


Orde Nol dengan Input Suhu Udara Bulan-bulan Sebelumnya ...................71
2. Model 2: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy
Orde Nol dengan Input Suhu Udara dan Kelembaban Udara Bulanbulan Sebelumnya........................................................................................81
3. Model 3: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy
Orde Satu dengan Input Suhu Udara Bulan-bulan Sebelumnya..................90
4. Model 4: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy
Orde Satu dengan Input Suhu Udara dan Kelembaban Udara Bulanbulan Sebelumnya......................................................................................102
C. Model ARIMA ..............................................................................................115
1. Identifikasi Model......................................................................................116
2. Uji Signifikansi Parameter.........................................................................118
3. Pemeriksaan Diagnosis Model ..................................................................119
D. Prediksi Suhu Udara .....................................................................................124
BAB V KESIMPULAN DAN SARAN...............................................................126
A. Kesimpulan ...................................................................................................126
B. Saran .............................................................................................................127
DAFTAR PUSTAKA ..........................................................................................128
LAMPIRAN .........................................................................................................130
Lampiran 1 ..........................................................................................................131
Lampiran 2 ..........................................................................................................137
Lampiran 3 ..........................................................................................................151
Lampiran 4 ..........................................................................................................165
Lampiran 5 ..........................................................................................................171
Lampiran 6 ..........................................................................................................177

xii

DAFTAR GAMBAR
Gambar 2.1

Grafik fungsi keanggotaan himpunan fuzzy suhu udara


rendah, sedang dan tinggi ...............................................................13

Gambar 2.2

Representasi linear naik ..................................................................15

Gambar 2.3

Representasi fungsi keanggotaan untuk himpunan fuzzy suhu

Gambar 2.4

udara tinggi pada X .........................................................................16

Gambar 2.5

Representasi fungsi keanggotaan untuk himpunan fuzzy suhu

Representasi linear turun ................................................................16

rendah pada X .................................................................................17


Gambar 2.6

Kurva segitiga .................................................................................17

Gambar 2.7

Fungsi keanggotaan untuk himpunan suhu sedang pada X ............18

Gambar 2.8

Kurva trapesium .............................................................................18

Gambar 2.9

Fungsi keanggotaan untuk himpunan fuzzy suhu sedang pada


X......................................................................................................19

Gambar 2.10 Kurva bentuk bahu pada variabel suhu udara.................................19


Gambar 2.11 Kurva bentuk bahu suhu udara rendah, sedang dan tinggi .............20
Gambar 2.12 Himpunan fuzzy dengan kurva-S : pertumbuhan ............................21
Gambar 2.13 Karateristik fungsi kurva-S.............................................................21
Gambar 2.14 Fungsi keanggotaan untuk himpunan suhu udara tinggi pada
X......................................................................................................22
Gambar 2.15 Himpunan fuzzy dengan kurva-S : penyusutan ...............................22
Gambar 2.16 Fungsi keanggotaan suhu tinggi untuk himpunan suhu udara
X......................................................................................................23
Gambar 2.17 Karateristik fungsional kurva Phi Cox, 1994) ................................23
Gambar 2.18 Fungsi keanggotaan kurva Phi untuk himpunan suhu udara
pada X .............................................................................................24
Gambar 2.19 Karateristik fungsional kurva Beta (Cox, 1994).............................25
Gambar 2.20 Fungsi keanggotaan kurva beta untuk himpunan fuzzy suhu
sedang pada X.................................................................................25
Gambar 2.21 Karateristik fungsional kurva gauss (Cox, 1994) ...........................26
Gambar 2.22 Fungsi keanggotaan himpunan suhu rendah pada himpunan
suhu udara X ...................................................................................26
xiii

Gambar 2.23 Diagram blok sistem inferensi fuzzy ...............................................30


Gambar 2.24 Himpunan fuzzy suhu udara ............................................................32
Gambar 2.25 Himpunan fuzzy untuk kelembaban ................................................32
Gambar 2.26 Jaringan syaraf sederhana (Kusumadewi dan Hartati,
2010:72)..........................................................................................35
Gambar 2.27 Jaringan Syaraf Sederhana dengan Bias .........................................36
Gambar 2.28 Contoh Pengolahan Data pada Jaringan Syaraf Sederhana
Lapisan Tunggal .............................................................................37
Gambar 2.29 Arsitektur Jaringan Syaraf dengan Banyak Lapisan ......................38
Gambar 2.30 Fungsi undak biner (hard limit)......................................................39
Gambar 2.31 Fungsi bipolar (symetric hard limit) ...............................................39
Gambar 2.32 Fungsi linear (identitas) ..................................................................40
Gambar 2.33 Fungsi saturating linear ..................................................................40
Gambar 2.34 Fungsi saturating linier ...................................................................41
Gambar 2.35 Fungsi sigmoid biner untuk himpunan fuzzy suhu udara pada
X .....................................................................................................42
Gambar 2.36 Arsitektur backpropagation jaringan syaraf ...................................44
Gambar 4.1

Plot Time Series Suhu Udara Bulan Januari 2006 s/d


Desember 2012 ...............................................................................72

Gambar 4.2

Plot Time Series Suhu Udara Bulan Januari 2006 s/d


Desember 2012 ...............................................................................72

Gambar 4.3

Plot ACF Suhu Udara Bulan Januari 2006 s/d ..............................72

Gambar 4.4

Hasil Evaluasi antara Output Jaringan dengan Target Model 1 .....75

Gambar 4.5

Plot Hasil Output Jaringan TRD dan Target Output pada


Model 1...........................................................................................80

Gambar 4.6

Plot Hasil Output Jaringan TRD dan CHD ....................................80

Gambar 4.7

Plot Kelembaban Udara Yogyakarta Periode Januari 2006 s/d


Desember 2012 ...............................................................................81

Gambar 4.8

Plot ACF Kelembaban Udara Yogyakarta Periode Januari


2006 s/d Desember 2012 ................................................................81

Gambar 4.9

Plot PACF Kelembaban Udara Yogyakarta Periode Januari


2006 s/d Desember 2012 ................................................................82

Gambar 4.10 Hasil Evaluasi antara Output Jaringan dengan Target Model 2 .....84
xiv

Gambar 4.11 Plot Hasil Output Jaringan TRD dan Target Output pada
Model 2...........................................................................................89
Gambar 4.12 Plot Hasil Output Jaringan TRD dan CHD ....................................90
Gambar 4.13 Plot Hasil Output Jaringan TRD dan Target Output TRD NFS
Orde Satu Model 3........................................................................102
Gambar 4.14 Plot Hasil Output Jaringan TRD dan CHD dan Target Output
TRD dan CHD NFS Orde Satu Model 3 ......................................102
Gambar 4.15 Plot Hasil Output Jaringan TRD dan Target Output TRD NFS
Orde Satu Model 4........................................................................115
Gambar 4.16 Plot Hasil Output Jaringan TRD dan CHD dan Target Output
TRD dan CHD NFS Orde Satu Model 4 ......................................115
Gambar 4.17 Plot Time Series TRD Suhu Udara Periode Januari 2006 s/d
Desember 2012 .............................................................................116
Gambar 4.18 Plot ACF TRD Suhu Udara ..........................................................116
Gambar 4.19 Plot PACF TRD Suhu Udara ........................................................117
Gambar 4.20 Grafik Transformasi Box-Cox Suhu Udara ..................................117
Gambar 4.21 Plot Uji Normalitas Galat Model ARIMA(2,0,0) .........................121
Gambar 4.22 Plot Uji Normalitas Galat Model ARIMA(0,0,1) .........................121
Gambar 4.23 Plot Target Output dan Output Jaringan TRD ARIMA(0,0,1).....123
Gambar 4.24 Plot Target Output dan Output Jaringan ARIMA(0,0,1)..............124

xv

DAFTAR TABEL
Tabel 2.1

Himpunan fuzzy Rendah, Sedang dan Tinggi pada S .....................13

Tabel 2.2

Transformasi Time Series Berdasarkan Nilai Estimasi ..................55

Tabel 2.3

Identifikasi Model dengan Pola Grafik ACF dan PACF ................60

Tabel 4.1

MSE Training Model 1 dengan 4 Variabel Input ...........................74

Tabel 4.2

SSE Hasil TRD Model 1 dengan 18 Neuron Pada Lapisan


Tersembunyi ...................................................................................74

Tabel 4.3

MSE Training Model 2 dengan 5 Variabel Input ...........................83

Tabel 4.4

SSE Hasil TRD Model 2 dengan 18 Neuron Pada Lapisan


Tersembunyi ...................................................................................84

Tabel 4.5
Tabel 4.6

MSE Hasil Training Model 3 pada R1 (NN1 ) .................................97


SSE Hasil TRD dengan 6 Neuron Pada Lapisan Tersembunyi

Tabel 4.7

R1 (NN1 ) Model 3 ...........................................................................98

Tabel 4.8

SSE Hasil TRD dengan 3 Neuron Pada Lapisan Tersembunyi

MSE Hasil Training Model 3 pada R2 (NN2 ) .................................99

Tabel 4.9

R2 (NN2 ) Model 3 ...........................................................................99

Tabel 4.10

SSE Hasil TRD dengan 4 Neuron Pada Lapisan Tersembunyi

MSE Hasil Training Model 3 pada R3 (NN3 ) ...............................100

Tabel 4.11

R3 (NN3 ) Model 3 .........................................................................101

Tabel 4.12

SSE Hasil TRD dengan 4 Neuron Pada Lapisan Tersembunyi

MSE Hasil Training Model 4 pada R1 (NN1 ) ...............................110

Tabel 4.13

R1 (NN1 ) Model 4 .........................................................................110

Tabel 4.14

SSE Hasil TRD dengan 6 Neuron pada Lapisan Tersembunyi

Tabel 4.15
Tabel 4.16

MSE Hasil Training Model 4 pada R2 (NN2 ) ...............................111


R2 (NN2 ) Model 4 .........................................................................112

MSE Hasil Training Model 4 pada R3 (NN3 ) ...............................113


SSE Hasil

TRD dengan

11

Neuron

Pada

Lapisan

Tabel 4.17

Tersembunyi R3 (NN3 ) Model 4 ...................................................114

Tabel 4.18

Uji Ljung-Box Model ARIMA .....................................................120

Tabel 4.19

Hasil Uji Normalitas Galat pada Model ARIMA .........................122

Tabel 4.20

MAPE dan MSE Model NFS .......................................................124

Uji Signifikansi Parameter Model ARIMA ..................................118

xvi

Tabel 4.21

Perbandingan MAPE dan MSE NFS Orde Nol, NFS Orde


Satu dan ARIMA(0,0,1) ...............................................................124

Tabel 4.22

Prediksi Suhu Udara .....................................................................125

xvii

DAFTAR SIMBOL

()
()

(1 , 2 )

:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:

:
:

:
:
:

:
:
:

:
:

:
:

%
T

:
:
:
:
:
:
:
:
:

(1 , 2 , , ) :

pasangan variabel input ke-i


target output ke-i
himpunan fuzzy A
jarak pusat cluster ke-i dengan data ke-k
fungsi aktivasi
-predikat ke-i
derajat keanggotaan x pada himpunan fuzzy A
fungsi keanggotaan himpunan fuzzy
banyak cluster (kelas)
banyak aturan inferensi fuzzy
aturan inferensi fuzzy ke-s
pusat cluster
bobot antara neuron ke-i dengan neuron ke-j
pasangan data input dan output pada aturan ke-s
SSE CHD pada aturan inferensi fuzzy ke-s
jaringan backpropagation dengan input (1 , 2 , , ) dan
output
output jaringan
sinyal output lapisan tersembunyi pada neuron ke-i
penjumlahan sinyal input
terbobot pada lapisan
tersembunyi pada neuron ke-j
sinyal output lapisan output pada neuron ke-i
jumlah sinyal input terbobot pada lapisan tersembunyi pada
neuron ke-j
error pada lapisan output pada neuron ke-k
koreksi bobot dari neuron ke-j pada lapisan tersembunyi
dengan neuron ke-k pada lapisan output
bobot yang menghubungkan neuron ke-i dengan neuron ke-j
bobot bias yang menuju neuron ke-j
bobot bias pada lapisan input yang menuju ke neuron ke-j
pada lapisan tersembunyi
bobot bias pada lapisan tersembunyi menuju lapisan output
koreksi bobot bias antara lapisan tersembunyi dengan
lapisan output
output jaringan pembelajaran pada setiap aturan inferensi
fuzzy
satuan suhu udara
satuan kelembaban udara
waktu pengamatan
koefisien parameter Moving Average (MA) bukan musiman
koefisien parameter MA musiman
koefisien parameter Autoregressive (AR) bukan musiman
koefisien parameter AR musiman
nilai variabel y pada periode t
Koefisien autokorelasi pada lag-k
xviii

: fungsi autokorelasi lag ke-k

xix

DAFTAR LAMPIRAN
LAMPIRAN 1 .....................................................................................................131
LAMPIRAN 2 .....................................................................................................137
LAMPIRAN 3 .....................................................................................................151
LAMPIRAN 4 .....................................................................................................165
LAMPIRAN 5 .....................................................................................................171
LAMPIRAN 6 .....................................................................................................177

xx

BAB I
PENDAHULUAN

A. Latar Belakang
Iklim dan cuaca merupakan suatu kondisi udara yang terjadi dipermukaan
bumi akibat adanya penyebaran pemerataan energi yang berasal dari matahari
yang diterima oleh permukaan bumi. Wilayah Indonesia berada pada posisi yang
sangat unik, terletak diantara 2 benua yaitu Benua Asia dan Benua Australia,
diantara 2 samudera yaitu Samudera Pasifik dan Samudera Hindia. Indonesia
dilalui garis khatulistiwa, terdiri dari beribu pulau, terdapat banyak selat dan teluk,
serta posisi pulau-pulau yang membujur dari barat ke timur. Hal ini menyebabkan
wilayah Indonesia rentan terhadap perubahan cuaca/iklim.
Iklim dan cuaca khususnya suhu udara merupakan salah satu faktor alam
yang sangat berpengaruh terhadap kehidupan. Prediksi suhu udara dilakukan
untuk mengantisipasi berbagai akibat buruk yang ditimbulkan oleh intensitas suhu
udara yang tidak sesuai. Suhu udara berpengaruh pada bidang pertanian,
kesehatan, pembangunan atau proyek, global warming, dan lain-lain.
Pada bidang pertanian, suhu udara adalah faktor penting yang berpengaruh
pada proses pertumbuhan tanaman. Kondisi suhu udara yang tinggi dapat
menyebabkan pertumbuhan tanaman terhambat, bahkan akan terjadi kemungkinan
gugurnya daun atau buah sebelum waktunya. Suhu udara yang fluktuatif pada
proses bercocok tanam juga berakibat pada gagal panen.
Pada bidang kesehatan, kondisi suhu udara yang fluktuatif dapat
menimbulkan berbagai penyakit. Manusia dan hewan dapat bertahan dalam
interval suhu 10-35. Manusia akan menderita penyakit yang berhubungan

dengan rasa kepanasan (heat rellated illness) ketika tubuhnya tidak dapat
beradaptasi. Pada suhu panas biasanya tubuh akan mengeluarkan keringat untuk
mendinginkannya. Tetapi jika kelembaban tinggi, tubuh tidak dapat segera
melepaskan keringat, akibatnya suhu tubuh akan segera naik, dan dapat merusak
otak dan organ vital lainnya. Sedangkan untuk kondisi dimana suhu udara tinggi
yang disertai kelembaban rendah dapat menyebabkan mudahnya kekurangan air
dalam tubuh (dehidrasi) (Hadori, 2010:100).
Pada bidang pembangunan atau proyek, suhu udara berperan penting
dalam menentukan perubahan benda, baik dalam ukuran, bentuk maupun wujud
benda. Misalkan proses pemuaian pada sambungan rel kereta, bingkai jendela
kaca, dan kabel telepon atau listrik. Pemasangannya dibuat renggang dengan
tujuan bahwa renggangan tersebut sebagai tempat ruang muai.
Global warming merupakan akibat dari meningkatnya suhu rata-rata
permukaan bumi akibat peningkatan jumlah emisi gas rumah kaca di atmosfer.
Global warming akan diikuti dengan perubahan iklim / pergeseran musim, seperti
meningkatnya curah hujan di beberapa belahan dunia sehingga menyebabkan
banjir. Sedangkan untuk belahan bumi yang lain mengalami musim kering yang
berkepanjangan disebabkan kanaikan suhu (Hadori, 2010:145).
Beberapa penelitian sudah dilakukan untuk memprediksi suhu udara.
Penelitian yang dilakukan oleh Chusnul Arif, dkk (2008) tentang penerapan
jaringan syaraf tiruan untuk prediksi suhu udara di dalam single-pan Greenhouse
daerah tropis dengan dipengaruhi oleh kelembaban relatif, radiasi matahari, dan
kemiringan atap. Penelitian yang dilakukan oleh Jayus Priyana (2011) tentang
aplikasi model fuzzy untuk peramalan suhu udara di Yogyakarta dengan
dipengaruhi faktor perawanan (cloud density). Penelitian yang dilakukan oleh Ali

Machmudin dan Brodjol (2012) tentang peramalan temperatur udara di kota


Surabaya dengan menggunakan ARIMA dan Artificial Neural Network. Penelitian
yang dilakukan oleh Agus Maman Abadi (2011) tentang peramalan suhu udara di
Yogyakarta dengan model fuzzy yang dibentuk dengan generalisasi metode Wang
dan dipengaruhi oleh faktor perawanan dan kelembaban udara. Penelitian yang
dilakukan oleh Putri Kartika Sari (2012) tentang aplikasi model Neuro-Fuzzy
dalam memprediksi produksi ikan lele di Kabupaten Sleman. Penelitian yang
dilakukan oleh Ayu Azmi Amalia (2012) tentang aplikasi Neuro-Fuzzy untuk
memprediksi suku bunga Bank Indonesia (BI Rate).
Suatu model pendekatan untuk melakukan komputasi dengan meniru akal
manusia dan memiliki kemampuan untuk menalar dan belajar pada lingkungan
yang penuh ketidakpastian dan ketidaktepatan disebut soft computing. Komponen
utama pembentuk soft computing adalah sistem fuzzy dan jaringan syaraf
(Kusumadewi dan Hartati, 2010:1-2).
Jaringan syaraf merupakan salah satu representasi buatan dari otak
manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada
otak manusia. Istilah buatan disini digunakan karena jaringan syaraf ini
diimplementasikan dengan menggunakan program komputer yang mampu
menyelesaikan sejumlah proses perhitungan selama proses pembelajaran
(Kusumadewi dan Hartati, 2010:69-89). Jaringan syaraf tiruan pertama kali dibuat
pada tahun 1943 oleh ahli syaraf (neurophysiologist) Waren Mc Culloch dan ahli
logika (logician) Walter Pits.
Logika fuzzy (fuzzy logic) merupakan representasi pengetahuan yang
dikonstruksikan dengan aturan IF-THEN. Logika fuzzy merupakan suatu cara
untuk memetakan suatu ruang input ke dalam suatu ruang output (Prabowo Pudjo

W dan Trias H, 2012:2). Fuzzy logic pertama kali diperkenalkan oleh Lotfi Zadeh
yang merupakan perluasan dari logika konvensional Boolean yang telah diperluas
untuk menangani konsep kebenaran parsial, yaitu nilai kebenaran yang terletak
antara kebenaran mutlak (direpresentasikan dengan nilai 1) dan kesalahan mutlak
(direpresentasikan dengan nila 0).
Sistem neuro fuzzy melakukan akuisisi pengetahuan melalui pembelajaran
jaringan syaraf. Jaringan syaraf diinisialisasi dengan pengetahuan pakar dalam
bentuk simbol, kemudian dilatih berdasarkan input-output sistem nyata.
Pengetahuan dalam bentuk simbol yang diperoleh dari pelatihan tersebut
kemudian direpresentasikan dalam logika fuzzy (Kusumadewi dan Hartati,
2010:5). Pada sistem ini jaringan syaraf digunakan untuk merealisasikan fungsi
keanggotaan fuzzy dan operator-operator fuzzy seperti AND, OR, dan NOT.
Neuro fuzzy pada dasarnya adalah sebuah jaringan syaraf tiruan yang
mampu mengekstrasi sebuah pengetahuan yang berupa aturan fuzzy (fuzzy rule)
dari pembelajaran yang dilakukannya, sehingga selain sistem dapat memberikan
sebuah keputusan melalui inference engine, sistem juga dapat memberikan
gambaran aturan yang diperolehnya dari pembelajarannya, dan sistem memiliki
kemampuan dinamis untuk dapat memperbaiki pengetahuannya dari pembelajaran
baru. Neuro fuzzy akan memberikan pandangan baru bahwa mesin bisa
menyerupai manusia dalam berfikir, mampu belajar, mampu memaparkan apa
yang dipelajarinya dan mampu memperbaiki / meng-update pengetahuannya
ketika ada data / fakta / pengetahuan yang baru masuk.
Neuro fuzzy dapat mengoptimasi proses inferensi, sehingga waktu yang
dibutuhkan untuk pembangkitan fungsi keanggotaan dan proses agregasi dapat
dilakukan relatif lebih singkat. Keunggulan lain dari model neuro fuzzy yaitu

kemampuan aproksimasi fungsi oleh logika fuzzy dan kemampuan proses belajar
oleh jaringan syaraf. Model neuro fuzzy sudah banyak digunakan antara lain pada
sistem kontrol dari kereta bawah tanah (subway) di Sendai, Jepang; perusahaan
mobil Nissan menggunakan sistem kontrol neuro fuzzy pada pengereman (braking
system), dan pengapian (fuel injector); model neuro fuzzy juga digunakan pada
peralatan seperti kamera, camcorder, mesin cuci, vacum cleaner, dan kulkas.
Berdasarkan hasil-hasil penelitian sebelumnya dan sejauh peneliti ketahui,
penelitian untuk memprediksi suhu udara dengan model neuro fuzzy orde satu
belum pernah dilakukan. Oleh karena itu, penelitian ini akan memprediksi suhu
udara dengan menggunakan model neuro fuzzy orde satu. Neuro fuzzy orde satu
merupakan sebuah sistem yang mengintegrasikan antara Jaringan Syaraf Tiruan /
JST (arificial neural network) dan logika fuzzy (fuzzy logic) dengan bagian
konsekuen pada aturan fuzzy berupa persamaan linear.
B. Pembatasan Masalah
Penelitian tentang prediksi suhu udara dengan model neuro fuzzy orde satu
ini hanya memprediksi suhu udara rata-rata bulanan pada wilayah Yogyakarta.
Faktor yang digunakan terhadap prediksi suhu udara pada penelitian ini adalah
suhu udara dan kelembaban udara (humidity) bulan-bulan sebelumnya.
C. Rumusan Masalah
Berdasarkan latar belakang di atas maka rumusan masalah yang akan dibahas
adalah sebagai berikut:
1. Bagaimana proses pemodelan Neuro Fuzzy orde satu dalam memprediksi suhu
udara di Yogyakarta?

2. Bagaimana tingkat keakuratan prediksi suhu udara di Yogyakarta dengan


model neuro fuzzy orde satu jika dibandingkan dengan model neuro fuzzy orde
nol dan model time series dilihat dari nilai MAPE?
D. Tujuan Penelitian
Tujuan penulisan penelitian ini menurut rumusan masalah di atas adalah:
1. Menjelaskan proses pemodelan neuro fuzzy orde satu dalam memprediksi
suhu udara di Yogyakarta.
2. Membandingkan tingkat keakuratan model neuro fuzzy orde satu jika
dibandingkan model model neuro fuzzy orde nol dan model time series dalam
memprediksi suhu udara di Yogyakarta dilihat dari nilai MAPE.
E. Manfaat Penelitian
1. Melatih pola pikir dan menambah pengetahuan tentang model untuk
memprediksi suhu udara.
2. Penelitian ini dapat dijadikan referensi untuk penelitian selanjutnya.
3. Memperoleh kemudahan dan keakuratan dalam memprediksi suhu udara.

BAB II
KAJIAN TEORI
A. Suhu Udara
1. Pengertian Suhu
Suhu merupakan karakteristik yang dimiliki oleh suatu benda yang
berhubungan dengan panas dan energi. Jika panas dialirkan pada suatu benda,
maka suhu benda tersebut akan meningkat, sebaliknya suhu benda tersebut akan
turun jika benda yang bersangkutan kehilangan panas (Lakitan, 1997:89).
Sedangkan menurut Kartasapoetra (1993:11), suhu menunjukkan derajat panas
atau dingin yang diukur berdasarkan skala tertentu.
Secara kualitatif, suhu dapat diketahui dari sensasi dingin atau hangatnya
sebuah benda yang dirasakan ketika menyentuhnya. Secara kuantitatif, suhu dapat
diketahui dengan menggunakan termometer. Suhu dapat diukur dengan
menggunakan termometer yang berisi air raksa atau alkohol. Kata termometer ini
diambil dari dua kata yaitu thermo yang artinya panas dan meter yang artinya
mengukur (to measure).
Termometer yang digunakan oleh BMKG Yogyakarta adalah termometerbola kering. Untuk merekam data hasil pengukuran suhu secara otomatis
digunakan termograf. Tempat pencatatan data tersebut (kertas pias) disebut
termogram. Alat-alat pengukur suhu harus dipasang pada tempat yang terlindung
dari hujan, pengembunan, dan radiasi surya langsung. Pada BMKG, alat tersebut
diletakkan di dalam sangkar-cuaca yang disebut Stevenson screen.
Menurut BMKG tentang tata cara tetap pelaksanaan, pengamatan,
penyandian, pelaporan dan pengarsipan data meteorologi permukaan, suhu udara
permukaan diamati pada ketinggian antara 1,20 1,25 meter dari permukaan

tanah. Suhu udara maksimum diamati sekali dalam sehari yaitu pada pukul 12.00
Z. Hasil baca suhu maksimum harus lebih tinggi atau serendah-rendahnya sama
dengan suhu udara hasil pembacaan dari termometer bola kering yang tertinggi
pada hari yang bersangkutan. Sedangkan suhu udara minimum diamati sekali
sehari yaitu pada pukul 00.00 Z. Hasil baca suhu minimum harus lebih rendah
atau setinggi-tingginya sama dengan suhu udara hasil-hasil pembacaan
termometer bola kering yang terendah pada hari yang bersangkutan.
Satuan pengukuran suhu, antara lain derajat Celcius ( ), derajat
Fahrenhait (), derajat Reamur (), dan derajat Kelvin (). Satuan derajat

celcius adalah satuan yang paling sering digunakan. Parameter dalam pengukuran
skala suhu adalah panas atau energi yang dimiliki oleh air pada titik beku (diberi
nilai 0) dan titik didih ( diberi nilai 100) (Handoko, 1995:42).
2. Faktor yang Mempengaruhi Suhu Udara
Kelembaban udara merupakan salah satu faktor yang berpengaruh dalam
prediksi

suhu

udara.

Menurut

Lakitan

(1997:187),

kelembaban

udara

menggambarkan kandungan uap air di udara yang dapat dinyatakan sebagai


kelembaban mutlak, kelembaban nisbi (relatif) maupun defisit tekanan uap air.
Kelembaban mutlak adalah kandungan uap air (dapat dinyatakan dengan
massa uap air atau tekanannya) per satuan volume. Kelembaban nisbi (Relative
Humidity = RH) adalah perbandingan massa uap air yang ada dalam satu satuan
volume udara dengan massa uap air yang diperlukan untuk menjenuhkan satu
satuan volume udara tersebut pada suhu yang sama. Sedangkan defisit tekanan
uap air adalah selisih antara tekanan uap jenuh dan tekanan uap aktual
(Handoko,1995:57).

Pada penelitian ini, kelembaban yang akan digunakan adalah kelembaban


nisbi. Kelembaban nisbi merupakan perbandingan antara kelembaban aktual (uap
aktual) dengan kapasitas udara untuk menampung uap air (uap jenuh). Alat untuk
mengukur kelembaban nisbi adalah hygrometer. Satuan kelembaban nisbi
dinyatakan dalam persen (%). Bila RH = 100% maka tekanan uap aktual akan
sama dengan

tekanan uap jenuh. Tekanan uap jenuh (kapasitas udara untuk

menampung uap air) akan berpengaruh pada suhu udara. Semakin meningkat uap
jenuh maka suhu semakin tinggi. Oleh karena itu pada uap aktual yang tetap, jika
RH kecil maka suhu udara meningkat, sebaliknya jika RH tinggi maka suhu udara
menjadi rendah (Handoko, 1995:59).
Kelembaban sangat penting artinya bagi kehidupan manusia. Pada daerah
kering, akan terasa cepat haus karena cairan yang ada pada tubuh akan menguap
dengan cepat sehingga akan mengalami dehidrasi. Kelembaban udara yang kecil
menyebabkan penguapan pada tubuh tumbuh-tumbuhan berjalan lebih cepat
sehingga pada musim kemarau beberapa jenis tanaman akan meranggas. Begitu
juga penguapan air pada rongga atas butir tanah berjalan lebih cepat sehingga
akar-akar vegetasi sulit melakukan osmosa, yang berujung pada layunya tanaman
bahkan kematian. Kelembaban yang tinggi di atmosfer dan mengalami penurunan
temperatur atau bercampur dengan massa udara dingin akan menyebabkan
terbentuknya kabut tebal yang membahayakan bagi lalu lintas udara maupun laut.
3. Penelitian Terdahulu
Penelitian yang dilakukan oleh Chusnul Arif, dkk (2008) tentang
penerapan jaringan syaraf tiruan untuk memprediksi suhu udara di dalam singlepan Greenhouse di daerah tropis dengan dipengaruhi oleh kelembaban relatif,
radiasi matahari, dan kemiringan atap. Hasil validasi model menunjukkan bahwa

model dengan 5 hidden layer menghasilkan kinerja terbaik diantara empat model
yang dikembangkan dengan nilai koefisien determinasi sebesar 0,879 dan RMSE
sebesar 1,34. Hasil ini menunjukkan tren yang hampir sama dengan hasil
pengukuran.
Penelitian yang dilakukan oleh Jayus Priyana (2011) tentang aplikasi
model fuzzy untuk peramalan suhu udara di Yogyakarta yang dipengaruhi faktor
perawanan (cloud density). Model Fuzzy terbaik yang digunakan dengan kriteria
nilai MSE paling kecil yaitu sebesar 0,67204.
Penelitian yang dilakukan oleh Ali Machmudin dan Brodjol (2012)
tentang peramalan temperatur udara di kota Surabaya dengan menggunakan
ARIMA dan Artificial Neural Network (ANN). Model ANN dengan pembelajaran
backpropagation memberikan model yang cukup baik daripada model ARIMA.
Penelitian yang dilakukan oleh Agus Maman Abadi (2011) tentang
peramalan suhu udara di Yogyakarta dengan sistem fuzzy yang dibentuk dengan
tabel lookup scheme (metode Wang) dan dibandingkan dengan generalisasi
metode Wang. Hasilnya prediksi suhu udara menggunakan metode Wang dengan
faktor kelembaban memberikan tingkat keakuratan lebih tinggi pada data testing,
Sedangkan generalisasi metode Wang memberikan tingkat keakuratan lebih tinggi
pada data training.
Penelitian yang dilakukan oleh Putri Kartika Sari (2012) tentang aplikasi
model neuro fuzzy dalam memprediksi produksi ikan lele di Kabupaten Sleman
dengan faktor produksi ikan lele bulan-bulan sebelumnya. Prediksi dilakukan
dengan dua metode yaitu neuro fuzzy Sugeno orde nol dan ARIMA. Metode
neuro fuzzy lebih baik dibandingkan dengan ARIMA karena memberikan nilai
MAPE dan MSE yang kecil.

10

Penelitian yang dilakukan oleh Ayu Azmi Amalia (2012) tentang aplikasi
Neuro-Fuzzy orde nol untuk memprediksi suku bunga Bank Indonesia (BI Rate).
Model terbaik dengan neuro fuzzy orde nol memberikan nilai MAPE untuk TRD
dan CHD berturut-turut sebesar 8,5% dan 14,22%.

B. Himpunan Klasik (Crisp set )


Himpunan klasik (crips set) adalah himpunan yang membedakan anggota
dan bukan anggota dengan batasan yang jelas (Suyanto,2008:8). Misal himpunan
A adalah himpunan klasik, maka hanya ada 2 kemungkinan yaitu menjadi anggota
himpunan A dan tidak mejadi anggota himpunan A. Nilai keanggotaan atau derajat
keanggotaan adalah suatu nilai x dalam suatu himpunan A, dinotasikan dengan
().

,
() =
,

(2. 1)

Contoh 2. 1 :

Diketahui X = {25,4; 23,75; 26,30; 27,23; 25,14; 24,97} adalah semesta


pembicaraan; A = {26,30 ; 25,11} dan B ={24,77 ; 25,4}, maka dapat dikatakan
bahwa:
a. Nilai keanggotaan pada himpunan A, (26,30) = 1 , karena 26,30

b. Nilai keanggotaan pada himpunan A, (25,11) = 0 , karena 25,11

c. Nilai keanggotaan pada himpunan B, (24,77) = 0 , karena 24,77


d. Nilai keanggotaan pada himpunan B, (25,4) = 1 , karena 25,4

Himpunan klasik kurang tepat digunakan pada data yang dikelompokkan

kedalam kelas yang mempunyai suatu selang atau interval, karena adanya
perubahan kecil pada suatu nilai mengakibatkan perbedaan kategori cukup
signifikan.

11

C. Himpunan Fuzzy
Teori himpunan fuzzy atau himpunan kabur (fuzzy set) adalah generalisasi
dari konsep himpunan klasik. Misalkan X merupakan semesta himpunan fuzzy
yang beranggotakan x dan A anggota X, maka fungsi keanggotaan ()

memetakan anggota X ke rentang keanggotaan dalam interval [0,1] (Thomas Sri


Widodo, 2005: 95).
Definisi 2. 1 (Zimmermann, 1991:11-12)
Jika X adalah koleksi dari objek-objek yang dinotasikan secara umum oleh x,
maka suatu himpunan fuzzy A dalam X adalah suatu himpunan pasangan berurutan
sebagai berikut:
= {(, ())| }

dengan () adalah nilai keanggotaan x di yang terletak pada rentang [0, 1].

Suatu himpunan fuzzy A dapat dinotasikan sebagai (Lin, 1996:13):


= {(, ())| }
1.

(2. 2)

= = ( )/ , jika X diskret
2.

(2. 3)

= ( )/ , jika X kontinu
3.

(2. 4)

Notasi dan pada persamaan 2.3 dan 2.4 bukan merupakan suatu operasi
bilangan, tetapi hanya sebuah simbol. Selanjutnya () disebut fungsi

keanggotaan dari himpunan fuzzy A pada X.


Contoh 2. 2:

Misalkan X = {25,71; 21,33; 20,97; 24,46; 27,12; 26,45} merupakan himpunan


semesta dari suhu udara dengan satuan . Didefinisikan himpunan fuzzy suhu
udara rendah, suhu udara sedang dan suhu udara tinggi seperti pada Tabel 2.1.

12

Tabel 2.1 Himpunan fuzzy Rendah, Sedang dan Tinggi pada S


Suhu Udara

25,71
21,33
20,97
24,46
27,12
26,45

Suhu Rendah
()

Suhu Sedang
()

0,3
0,9
1
0,4
0
0,1

1
0,4
0,2
0,8
0
0,2

Suhu Tinggi
()
0,6
0,1
0
0,4
1
0,9

Gambar 2.1 Grafik fungsi keanggotaan himpunan


fuzzy suhu udara rendah, sedang dan tinggi

Berdasarkan Tabel 2.1, himpunan fuzzy dengan anggota dan derajat keanggotaan
sebagai berikut:
a. Himpunan fuzzy suhu rendah adalah
= {(25,71; 0,3); (21,33; 0,9); (20,97; 1); (24,46; 0,4); (26,45; 0,1)}
A

b. Himpunan fuzzy suhu sedang adalah

= (25,71; 1); (21,33; 0,4); (20,97; 0,2); (24,46; 0,8); (26,45; 0,2)}

c. Himpunan fuzzy suhu tinggi adalah

= {(25,71; 0,6); (21,33; 0.1); (24,46; 0,4); (26,45; 0,9); (27,12; 1); }.

Contoh 2. 3:

Berdasarkan Contoh 2.2, himpunan fuzzy suhu udara tinggi ( ), dapat dituliskan
sebagai:

0,6
0,1
0,4
0,9
1
= 25,71 + 21,33 + 24,46 + 26,45 + 27,17

13

Contoh 2. 4:
Berdasarkan Contoh 2.2, himpunan fuzzy suhu udara sedang (), dapat dituliskan
sebagai:

0,2
0,4
0,8
1
0,2
+
+
+
+
20,97
21,33
24,46
25,71
26,45

Definisi 2. 2 (Sri Kusumadewi, 2010:20)

Support dari himpunan fuzzy A di X adalah S (), dengan S() ={| () > 0}.

Contoh 2. 5:

Berdasarkan Contoh 2.2, elemen-elemen {24,79; 27,11; 23,54; 22,33} bukan


merupakan support dari himpunan fuzzy A karena elemen-elemen tersebut bukan
anggota dari himpunan fuzzy A.
Definisi 2. 3 (Sri Kusumadewi, 2010:20)
Himpunan -level adalah himpunan elemen-elemen yang ada pada himpunan
fuzzy A. Sedemikian sehingga untuk suatu nilai :
= { | () }

= { | () < }

(2. 5)
(2. 6)

disebut sebagai himpunan level yang kuat atau level kuat.

Contoh 2. 6:

Berdasarkan Contoh 2.2 dengan


= {(25,71; 0,3); (21,33; 0,9); (20,97; 1); (24,46; 0,4); (26,45; 0,1)}
A

Untuk nilai = 0,1 ; maka 0,1 = {25,71; 21,33; 20,97; 24,46; 26,45}

Untuk nilai = 0,3 ; maka 0,3 = {25,71; 21,33; 20,97; 24,46}

Untuk nilai = 0,4 ; maka 0,4 = {21,33; 20,97; 24,46}


Untuk nilai = 0,9 ; maka 0,9 = {21,33; 20,97}
14

Untuk nilai = 1 ; maka 1 = {20,97}

1. Representasi Fungsi Keanggotaan


Fungsi keanggotaan (membership function) adalah suatu kurva yang
menunjukkan pemetaan titik-titik input data ke dalam nilai keanggotaannya yang
memiliki interval [0,1] (Prabowo dan Rahmadya, 2012:23). Salah satu cara yang

dapat digunakan untuk mendapatkan nilai keanggotaan adalah dengan melalui


pendekatan fungsi. Ada beberapa representasi fungsi yang bisa digunakan antara
lain (Kusumadewi dan Hartati, 2010:22-36):
a. Representasi Linear
Dalam representasi ini, pemetaan input ke nilai keanggotaannya
digambarkan sebagai suatu garis lurus. Bentuk ini paling sederhana dan menjadi
pilihan yang baik untuk mendekati suatu konsep yang kurang jelas. Ada 2 keadaan
himpunan fuzzy yang linear, yaitu:
1) Representasi Linear Naik.
Kenaikan himpunan dimulai pada nilai daerah asal yang memiliki nilai
keanggotaan [0] bergerak ke kanan menuju ke nilai daerah asal yang memiliki
nilai keanggotaan lebih tinggi seperti pada Gambar 2.2.

Gambar 2.2 Representasi linear naik

Fungsi keanggotaan:
;
() = ;
;

<<

(2. 7)

15

Contoh 2. 7:
Fungsi keanggotaan untuk himpunan fuzzy suhu tinggi pada = [24,46; 27,12]
dapat dinyatakan dengan
() =

0;

24,46
27,1224,46 ;

1;

24,46
24,46 < < 27,12
27,12

Gambar 2.3 Representasi fungsi keanggotaan untuk


himpunan fuzzy suhu udara tinggi pada

2) Representasi Linear Turun


Pada representasi linear turun, garis lurus dimulai dari nilai daerah asal dengan
nilai keanggotaan tertinggi pada sisi kiri, kemudian bergerak menurun ke nilai
daerah asal yang memiliki nilai keanggotaan lebih rendah seperti pada Gambar
2.4.

1
()
0

doma

Gambar 2.4 Representasi linear turun

Fungsi keanggotaan:
() =

; <<

(2. 8)

16

Contoh 2. 8:
Fungsi keanggotaan untuk himpunan fuzzy suhu rendah pada X=[20,97;26,45]
dapat dinyatakan dengan
() =

0;

26,45

26,4520,97

; 20,97 < < 26,45

26,45

Gambar 2.5 Representasi fungsi keanggotaan


untuk himpunan fuzzy suhu rendah pada X

b. Representasi Kurva Segitiga


Kurva segitiga merupakan gabungan antara 2 garis linear, yaitu garis linear
naik dan garis linear turun seperti pada Gambar 2.6.

1
()
0

b
c
domain
Gambar 2.6 Kurva segitiga

Fungsi keanggotaan:

() =

Contoh 2. 9:


<<

(2. 9)

<<

Fungsi keanggotaan untuk himpunan fuzzy suhu sedang pada X=[20,97;26,45]


dapat dinyatakan dengan

17

0;
20,97

;
() = 24,46 20,97
26,45

;
26,50 24,46

20,97 26,50
20,97 < < 24,46
24,46 < < 26,50

Gambar 2.7 Fungsi keanggotaan untuk himpunan suhu sedang


pada X

c. Representasi Kurva Trapesium


Kurva trapesium pada dasarnya berbentuk seperti kurva segitiga, namun
bedanya pada kurva trapesium terdapat beberapa titik yang mempunyai nilai
keanggotaan 1 seperti pada Gambar 2.8.

1
()
0

Gambar 2.8 Kurva trapesium

Fungsi keanggotaan
;

;
() = ;


<<

Contoh 2. 10:

(2. 10)

<<

Fungsi keanggotaan untuk himpunan fuzzy suhu sedang pada = [20,97; 27,12]
dapat dinyatakan dengan

18

() =

0;
20,97
21,3320,97 ;

20,97 27,12
20,97 < < 21,33

1 ;
27,12 ;
27,1226,45

21,33 26,45
26,45 < < 27,12

Gambar 2.9 Fungsi keanggotaan untuk himpunan fuzzy


suhu sedang pada X

d. Representasi Kurva Bentuk Bahu


Daerah

yang

terletak

di

tengah-tengah

suatu

variabel

yang

direpresentasikan dalam bentuk segitiga, pada sisi kanan dan kirinya akan naik
dan turun. Misalkan: kondisi suhu udara bergerak dari tingkat sangat rendah ke
rendah ke sedang ke tinggi dan bergerak ke sangat tinggi. Tetapi terkadang salah
satu sisi dari variabel tersebut tidak mengalami perubahan. Contoh, apabila telah
mencapai kondisi suhu yang sangat tinggi, kenaikan suhu udara akan tetap berada
pada posisi kondisi suhu sangat tinggi. Himpunan fuzzy bahu digunakan untuk
mengakhiri variabel suatu daerah fuzzy. Bahu kiri bergerak dari benar ke salah,
dan bahu kanan bergerak dari salah ke benar seperti pada Gambar 2.10.
Bahu
Kiri
()

Sangat
rendah

rendah

sedang

tinggi

Sangat
tinggi

0
0

20

40

Suhu Udara ()

Gambar 2.10 Kurva bentuk bahu pada variabel suhu udara


19

Bahu
Kanan

Contoh 2. 11:
Misalkan X = [19, 29] adalah himpunan semesta dari suhu udara dalam .

Didefinisikan himpunan fuzzy suhu rendah (), sedang (), dan tinggi () pada X.
Representasi fungsi keanggotaan bentuk bahu untuk suhu rendah, sedang, dan
tinggi dapat dinyatakan dengan
()

26,45

; 22,13 < 26,45

26,4522,13
0

; 26,45 22,13

0;

22,13

() = 26,4522,13 ;
28,64
;
28,6426,45
28,64

() = 28,6426,45
0;

22,13 28,64
22,13 26,45
26,45 28,64

26,45 < 28,64

26,45 28,64

Gambar 2.11 Kurva bentuk bahu suhu udara


rendah, sedang dan tinggi

e. Representasi Kurva-S
Kurva-S atau sigmoid terdiri dari 2 jenis yaitu kurva Pertumbuhan dan
kurva Penyusutan. Kenaikan dan penurunan permukaan kurvanya secara tak
linear.
1). Kurva Pertumbuhan
Kurva Pertumbuhan bergerak dari sisi paling kiri ( = 0) ke sisi paling kanan

( = 1). Fungsi keanggotaannya akan tertumpu pada 50% nilai keanggotaannya


yang sering disebut dengan titik infleksi.

20

1
Derajat
keanggotan
()

domain

Gambar 2.12 Himpunan fuzzy dengan kurva-S :


pertumbuhan

Kurva-S didefinisikan dengan 3 parameter, yaitu: nilai keanggotaan nol (), nilai
keanggotaan lengkap (), dan titik infleksi atau crossover () yang merupakan
titik yang memiliki domain 50% benar seperti pada Gambar 2.13.
derajat
keanggotaan
()

0.5
0

() = 0

domain

() = 0.5

() = 0

Gambar 2.13 Karateristik fungsi kurva-S

Fungsi keanggotaan pada kurva Pertumbuhan:

0;

2
2(( x ) ( )) ;
S ( x; , , ) =
2
1 2(( x) ( )) ;
1;

<x
< x<
x

(2. 11)

Contoh 2. 12:
Fungsi keanggotaan untuk himpunan fuzzy suhu tinggi pada X=[20;28] yang dapat
dinyatakan dengan

21

(; 21,5; 24,41; 27,32) =

2
21,5

27,3221,5

; 21,5

1 2 27,32
27,3221,5

; 21,5 24,41

; 24,41 27,32
; 27,32

Gambar 2.14 Fungsi keanggotaan untuk himpunan


suhu udara tinggi pada X

2). Kurva Penyusutan


Kurva Penyusutan bergerak dari sisi paling kanan ( = 1) ke sisi paling kiri
( = 0)

Derajat
keanggotan
()
0

domain

Gambar 2.15 Himpunan fuzzy dengan kurva-S :


penyusutan

Fungsi keanggotaannya:

1;

2
1 2(( x ) ( )) ;
S ( x; , , ) =
2
2(( x) ( )) ;
0;

<x<
x<
x

(2. 12)

Contoh 2. 13:
Fungsi keanggotaan untuk himpunan fuzzy suhu tinggi pada X=[20;28] dapat
dinyatakan dengan

22

(; 21,5; 24,41; 27,32) =

1 2

2
21,5

27,3221,5
27,32 2

27,3221,5
1

; 21,5

; 21,5 24,41

; 24,41 27,32
; 27,32

Gambar 2. 16 Fungsi keanggotaan suhu tinggi


untuk himpunan suhu udara X

f. Representasi Kurva Bentuk Lonceng (bell curve)


Kuva Lonceng dibagi menjadi 3 kelas, yaitu:
1). Kurva Phi
Kurva Phi berbentuk lonceng dengan = 1 terletak pada pusat dengan domain

() dan lebar kurva () seperti pada Gambar 2.17. Nilai kurva untuk suatu nilai
domain x, yaitu:
Pusat

1
Derajat
keanggotaa

Titik
Domain

Lebar

Gambar 2.17 Karateristik fungsional kurva Phi Cox, 1994)

23

Fungsi keanggotaannya:


x
S x; , 2 , ;

.
( x, , ) =

1 S x; , + , + ; x >

(2. 13)

Contoh 2. 14:
Fungsi keanggotaan untuk himpunan fuzzy suhu udara X=[20;30] dapat
dinyatakan dengan
4,40

, 27.99
; 27.99
(, (27.99 4.40), 27.99
2
(; 4,40; 27,99; 27,99) =
4,40
, (27.99 + 4,40) ; > 27,99
1 (, 2.99, 27.99 +
2

Gambar 2.18 Fungsi keanggotaan kurva Phi untuk


himpunan suhu udara pada X

1) Kurva Beta
Kurva Beta berbentuk lonceng, tetapi lebih rapat. Kurva ini didefinisikan dengan
2 parameter, yaitu nilai pada domain yang menunjukkan pusat kurva (), dan
setengah lebar kurva () seperti pada Gambar 2.4.

24

Pusat

1
Nilai
keanggotaan
0.5

Titik Inflasi

Domain

Titik Inflasi
+

Gambar 2.19 Karateristik fungsional kurva Beta (Cox, 1994)

Fungsi keanggotaannya:
B ( x; , ) =

1
x
1+

(2. 14)

Salah satu perbedaan kurva Beta dengan kurva Phi adalah fungsi keanggotaan
kurva Beta akan mendekati nol hanya jika nilai () sangat besar.
Contoh 2. 15:
Fungsi keanggotaan untuk himpunan fuzzy Suhu rendah pada X=[2;25] dapat
dinyatakan dengan
(, 20, 5) =

20 2

1+
5

Gambar 2.20 Fungsi keanggotaan kurva beta untuk


himpunan fuzzy suhu sedang pada X

25

3). Kurva GAUSS


Kurva Phi dan kurva Beta menggunakan parameter () dan (), sedangkan kurva
Gauss menggunakan parameter () untuk menunjukkan nilai domain pada pusat
kurva dan (k) yang menunjukkan lebar kurva seperti pada Gambar 2.21 berikut.
Pusat

1
Derajat
keanggotaan
0.5

Domain

Lebar

Gambar 2.21 Karateristik fungsional kurva gauss (Cox, 1994)

Fungsi keanggotaannya:

G ( x; k , ) = e k ( x )

(2. 15)

Contoh 2. 16:
Fungsi keanggotaan dari himpunan fuzzy suhu rendah pada X=[2;50] dapat
dinyatakan dengan
2

(; 16,5; ,24,5) = 16,5(24,5)

Gambar 2.22 Fungsi keanggotaan himpunan suhu rendah


pada himpunan suhu udara X

26

2. Operator-operator Fuzzy
Pada dasarnya ada 2 model operator fuzzy (Klir, 1997:90-93), yaitu:
a. Operator-operator dasar yang dikemukakan oleh Zadeh
b. Operator-operator alternatif yang dikembangkan dengan menggunakan konsep
transformasi tertentu
a. Operator-operator Dasar Zadeh
Operator dasar Zadeh dibagi menjadi 3, yaitu: AND, OR, dan NOT. Nilai
keanggotaan sebagai hasil dari operasi 2 himpunan fuzzy disebut fire strength atau
-predikat.

1) Operator AND
Operator ini berhubungan dengan operasi interseksi antara 2 himpunan yang berisi
elemen-elemen yang terdapat pada kedua himpunan. -predikat pada operator

AND diperoleh dengan mengambil nilai keanggotaan terkecil antar elemen pada
himpunan-himpunan yang bersangkutan.
(, ) = (), ()

(2. 16)

Contoh 2. 17:

Misalkan nilai keanggotaan 24,63 pada himpunan fuzzy suhu udara rendah ()

adalah 0,4 ( (24,63) = 0,4) dan nilai keanggotaan 63,4% pada himpunan fuzzy
kelembaban sedang adalah 0,7 ( (63,4) = 0,7), maka -predikat untuk
suhu udara rendah dan kelembaban sedang adalah:
(, )

= min (24,63), (63,4)


= min (0,4; 0,7)

= 0,4

27

2) Operator OR
Operator ini berhubungan dengan operasi union (U) pada himpunan. -predikat

pada operator OR diperoleh dengan mengambil nilai keanggotaan terbesar antar


elemen pada himpunan-himpunan yang bersangkutan.
(, ) = (), ()

(2. 17)

Contoh 2. 18:

Berdasarkan Contoh 2.16, dapat dihitung nilai -predikat untuk himpunan fuzzy
suhu udara rendah () atau kelembaban sedang () adalah:
(, )

= max (24,63), (63,4)


= max (0,4; 0,7)
= 0,7

3) Operator NOT

Operator ini berhubungan dengan operasi komplemen pada himpunan. -predikat


pada operator NOT diperoleh dengan mengurangkan nilai keanggotaan elemen
pada himpunan-himpunan yang bersangkutan.
() = ()

(2. 18)

Contoh 2. 19:

Berdasarkan Contoh 2.16, dapat dihitung nilai -predikat untuk himpunan fuzzy
suhu udara tinggi tidak rendah () adalah:
(4,63)

= 1 (24,63)
= 1 0,4

= 0,6

28

b. Operator-operator Alternatif
Pada dasarnya ada 2 tipe operator alternatif, yaitu operator alternatif yang
didasarkan pada transformasi aritmatika, seperti: mean, product, dan bounded
sum; dan operator alternatif yang didasarkan pada transformasi fungsi yang lebih
kompleks, seperti: Kelas Yager dan Sugeno.

D. Logika Fuzzy
Logika fuzzy adalah kerangka matematis dari suatu pengetahuan yang
digunakan untuk mempresentasikan ketidakpastian, ketidakjelasan, ketidaktepatan
yang dikonstruksikan dengan aturan-aturan IF-THEN. Logika fuzzy merupakan
suatu cara untuk memetakan suatu ruang input ke dalam suatu ruang output
(Prabowo Pudjo W dan Trias H, 2012:2). Logika fuzzy merupakan perkembangan
dari logika klasik. Pada logika fuzzy nilai kebenaran suatu item berada pada
interval [0,1].

E. Sistem Fuzzy
Soft computing merupakan inovasi baru dalam membangun sistem cerdas.
Sistem cerdas ini memiliki keahlian seperti manusia pada permasalahan tertentu.
Unsur-unsur pokok dalam soft computing yaitu: Sistem Fuzzy, Jaringan Syaraf
Tiruan, algoritma evolusioner, dan penalaran dengan probabilitas (probabilistic
reasoning). Sistem inferensi fuzzy (Fuzzy Inference System atau FIS) merupakan
suatu kerangka komputasi yang didasarkan pada teori fuzzy, aturan fuzzy
berbentuk IF-THEN, dan penalaran fuzzy. Diagram blok proses inferensi fuzzy
secara garis besar ditunjukkan seperti pada Gambar 2.23.

29

Gambar 2.23 Diagram blok sistem inferensi fuzzy


(Sri Kusumadewi dan Hartati, 2010:40)

Input crisp yang diterima diubah menjadi nilai-nilai fuzzy pada proses
fuzzifikasi, kemudian dikirim ke basis pengetahuan yang berisi n aturan fuzzy
dalam bentuk IF-THEN. -predikat akan dicari dalam setiap aturan. Apabila
jumlah aturan lebih dari satu, maka akan dilakukan penyederhanaan (agregasi)

dari semua aturan. Kemudian dari hasil agregasi tersebut dilakukan defuzzifikasi
untuk mendapatkan nilai crisp sebagai output sistem.
Metode Takagi Sugeno Kang (TSK)
Metode ini dinamakan metode Takagi Sugeno Kang (TSK) karena metode
ini pertama kali dikenalkan oleh Takagi-Sugeno Kang pada tahun 1985.
Karateristik dari metode Sugeno yaitu konsekuen dari aturan fuzzy bukan
merupakan himpunan fuzzy, tetapi merupakan suatu persamaan linear dengan
variabel-variabel sesuai dengan variabel-variabel inputnya. Metode TSK
mempunyai 2 macam model, yaitu model TSK order nol dan model TSK order
satu (Lin, 1996: 18-19).
a. Model Fuzzy Sugeno Order Nol
Bentuk umum model fuzzy Sugeno order nol adalah:
( ) ( ) ( ) =

30

(2. 19)

dengan adalah input data ke-i, Ai adalah himpunan fuzzy ke-i sebagai anteseden,

adalah operator fuzzy (seperti AND atau OR), dan k adalah suatu konstanta

(tegas) sebagai konsekuen.


b. Model Fuzzy Sugeno Orde Satu
Pada penelitian ini, sistem fuzzy yang digunakan adalah model fuzzy Sugeno orde
satu. Bentuk aturan fuzzy pada model fuzzy Sugeno order satu adalah:
( ) ( ) = + + +

(2. 20)

dengan adalah input data ke-i, Ai adalah himpunan fuzzy ke-i sebagai anteseden,

adalah operator fuzzy (seperti AND atau OR), pi adalah suatu konstanta (tegas)

ke-i ; i = 0,1,2,,n.
Proses agregasi dan defuzzifikasi untuk mendapatkan nilai tegas sebagai
output untuk suatu aturan fuzzy pada Persamaan 2.20 dilakukan dengan
menggunakan rata-rata terbobot yaitu:
=

(2. 21)

dengan:
y*

= nilai output

= nilai -predikat ke-

= banyaknya aturan fuzzy IF THEN

= nilai output aturan ke-

Contoh 2. 20:
Misalkan ingin menentukan suhu udara berdasarkan suhu udara 2 bulan
sebelumnya dan kelembaban 2 bulan sebelumnya. Suhu udara 2 bulan sebelumnya
adalah 25,37 dan kelembaban udara 2 bulan sebelumnya adalah 80%. Masingmasing variabel tersebut dibagi menjadi tiga himpunan: Rendah (R), Sedang (S),

31

dan Tinggi (T). Grafik fungsi keanggotaan untuk masing-masing variabel sebagai
berikut:
(1 )

Sx1

Rx1

25

25,37

Sx2

Rx2\

0 50

32,5

Gambar 2.24 Himpunan fuzzy suhu udara

(2 )
1

Tx1

75

40

x1

Tx2

80

100

Gambar 2.25 Himpunan fuzzy untuk kelembaban

x2

Misalkan ada 3 aturan fuzzy yaitu:


1 : 1 1 2 2 1 0,1241 + 0,2672 0,0002

2 : 1 1 2 2 2 0,18131 + 0,2932 + 0,0008


3 : 1 1 2 2 3 0,04751 + 0,2392 + 0,0133
dengan fungsi keanggotaan pada bagian anteseden:

Fungsi keanggotaan untuk Suhu Udara


1 =

32,5
25
; 1 =
; =0
32,5 25
32,5 25 1

Fungsi keanggotaan untuk kelembaban


2 = 0; 2 =

100
75
; 2 =
50
75
32

dan
=

1 1 + 2 2 + 3 3
1 + 2 + 3

Diberikan 1 = 25,37 dan 2 = 80%, maka

1 = 0,95; 1 = 0,049; 1 = 0; 2 = 0; 2 = 0,67; 2 = 0,2

Nilai untuk masing-masing pada tiap aturan fuzzy adalah sebagai berikut:
Aturan 1:

1 : 1 1 2 2 1 0,1241 + 0,2672 0,0002


Nilai -predikat adalah 1 = 1 , 2 = (0,95; 0) = 0

Nilai 1 adalah 1 = 0,124(25,37) + 0,267(80) 0,0002 = 24,51


Aturan 2:

2 : 1 1 2 2 2 0,18131 + 0,2932 + 0,0008


Nilai -predikat adalah 2 = 1 , 2 = (0,049; 0,2) = 0,049

Nilai 2 adalah 2 = 0,1813(25,37) + 0, 293(80) + 0,0008 = 28,04


Aturan 3:

3 : 1 1 2 2 3 0,04751 + 0,2392 + 0,0133

Nilai -predikat adalah 3 = 1 , 2 = (0; 0) = 0

Nilai 3 adalah 3 = 0,0475(25,37) + 0,239(80) + 0,0133 = 20,34


Nilai dengan rata-rata terbobot adalah
=

(0)(24,51) + (0.049)(28,04) + (0)(20,34)


= 28,04
0 + 0,049 + 0

Jadi dengan menggunakan suhu udara dan kelembaban 2 bulan sebelumnya


diperoleh suhu udara bulan berikut adalah 28,04 .

33

F. Jaringan Syaraf Tiruan (Artificial Neural Network)


Menurut Kusumadewi dan Hartati (2010:69-89), jaringan syaraf
merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba
untuk mensimulasikan proses pembelajaran pada otak manusia. Istilah buatan
disini digunakan karena jaringan syaraf ini diimplementasikan dengan
menggunakan program komputer yang mampu menyelesaikan sejumlah proses
perhitungan selama proses pembelajaran.
1. Komponen-komponen jaringan syaraf
Hampir semua tipe-tipe jaringan syaraf mempunyai komponen-komponen
yang sama. Jaringan syaraf terdiri dari beberapa neuron yang antar neuronnya
tersebut mempunyai hubungan. Neuron-neuron akan mentransformasikan
informasi yang diterima melalui sambungan keluarnya menuju neuron-neuron
yang lain. Hubungan ini disebut dengan bobot. Informasi tersebut disimpan pada
suatu nilai tertentu pada bobot tersebut (Fausett, 1994:40).
Cara kerja neuron-neuron buatan sama dengan neuron-neuron biologis
seperti yang dimilki manusia. Informasi (input) akan dikirim ke neuron dengan
bobot kedatangan tertentu dan akan diproses oleh fungsi perambatan yang akan
menjumlahkan nilai-nilai semua bobot yang datang. Hasil penjumlahan ini akan
dibandingkan dengan suatu nilai ambang (threshold) melalui fungsi aktivasi setiap
neuron. Neuron akan diaktifkan jika mencapai nilai ambang tertentu, dan neuron
tersebut akan mengirimkan output melalui bobot-bobot outputnya ke semua
neuron yang berhubungan dengannya. Sebaliknya jika nilai ambang tersebut tidak
dapat dicapai maka neuron akan di non-aktifkan (Fausett, 1994:41).
Lapisan untuk tempat berkumpulnya neuron-neuron disebut lapisan
neuron (neuro layers). Neuron pada suatu lapisan akan dihubungkan dengan

34

neuron sebelum dan neuron sesudahnya, kecuali lapisan input dan output.
Informasi pada jaringan syaraf akan dirambatkan mulai dari lapisan input sampai
ke lapisan output melalui lapisan lainnya, yang sering dikenal dengan lapisan
tersembunyi (hidden layer). Informasi tersebut bisa saja dirambatkan secara
mundur, hal itu tergantung pada algoritma pembelajarannya. Jaringan syaraf
sederhana dengan fungsi aktivasi F ditunjukkan pada Gambar 2.26.
1

y_in

Gambar 2.26 Jaringan syaraf sederhana


(Kusumadewi dan Hartati, 2010:72)

Pada Gambar 2.26 di atas, neuron akan mengolah N input (x1, x2,

,xi)

yang

masing-masing memiliki bobot w1, w2, ,wi dengan rumus:


N

y _ in = xi wi ; i = 1, , N

(2. 22)

i =1

Fungsi aktivasi F akan mengaktivasi y _ in menjadi output jaringan . Untuk


jaringan syaraf dengan jumlah neuron pada lapisan output sebanyak m buah,
maka proses pengolahan data pada neuron ke-j adalah:

=
y _ in

xw ; j
=
i =1

dengan

ij

1,..., m ; i = 1, , N

(2. 23)

wij adalah bobot yang menghubungkan input ke- i menuju ke neuron ke-j.
Tidak selamanya jaringan syaraf mampu mengakomodasi informasi yang

ada melalui data-data input maupun melalui bobot-bobotnya. Untuk mengatasi hal

35

tersebut maka pada jaringan syaraf ditambahkan bias yang bernilai 1. Pengaruh
bias terhadap neuron ditunjukkan dengan bobot bias (b). Proses komputasi pada
neuron yang dilengkapi dengan bobot bias (b), yaitu:

=
y _ in

x w +b
i =1

(2. 24)

Untuk jaringan syaraf dengan jumlah neuron pada lapisan output sebanyak m
buah, maka proses pengolahan data pada neuron ke- j adalah sebagai berikut:

y _ in j =

xw
i =1

ij

+ b j ; j = 1,..., m ; i = 1, , N

(2. 25)

b j adalah bobot bias yang menuju neuron ke- j . Jaringan syaraf sederhana dengan
bias ditunjukkan pada Gambar 2.27.

1
2

1
_

b
1

Gambar 2.27 Jaringan Syaraf Sederhana dengan Bias


(Kusumadewi dan Hartati, 2010:73)

Contoh 2. 21:
Misalkan terdapat jaringan syaraf dengan 3 input yaitu x1, x2 dan x3 serta memiliki
2 output yaitu y1 dan y2 , nilai x1 = 4, x2 = 7, x3 = 2 dan bobot wij. Seperti yang
ditunjukkan pada Gambar 2.28.

36

0,3
4

0,2
0,4

0,1
0,6
0,2

N1

F1

N2

F2

5,2

1,9

Gambar 2.28 Contoh Pengolahan Data pada Jaringan Syaraf Sederhana Lapisan
Tunggal

dengan,
xi

= lapisan input

Ni

= Neuron ke-i

Nilai y_in dapat dihitung sebagai berikut:


y_in1 = (4)(0,3) + (7)(0,4) + (2)(0,6) = 5,2
y_in2 = (4)(0,2) + (7)(0,1) + (2)(0,2) = 1,9
2. Arsitektur jaringan syaraf
Menurut Kusumadewi dan Hartati (2010:74), hubungan antar neuron
jaringan

syaraf

pada

mengikuti pola tertentu tergantung pada arsitektur jaringan

syarafnya, yaitu:
a. Jaringan syaraf dengan lapisan tunggal (single layer net)
Ciri-ciri arsitektur jaringan syaraf dengan lapisan tunggal yaitu hanya memiliki
satu lapisan input dan satu lapisan tanpa lapisan tersembunyi.
b. Jaringan syaraf dengan lapisan banyak (multilayer net)
Ciri-ciri arsitektur jaringan syaraf dengan banyak lapisan yaitu memiliki satu
atau lebih lapisan tersembunyi, dan pada umumnya ada lapisan bobot-bobot
yang terletak antara 2 lapisan yang bersebelahan.

37

Jaringan syaraf banyak lapisan dapat menyelesaikan permasalahan yang lebih


sulit daripada jaringan syaraf lapisan tunggal, dengan pembelajaran yang lebih
rumit.

Gambar 2.29 Arsitektur Jaringan Syaraf dengan Banyak Lapisan

dengan:
vij

= bobot-bobot yang menghubungkan antara neuron-neuron pada lapisan


input dengan lapisan tersembunyi

wjk

= bobot-bobot yang menghubungkan antara neuron-neuron pada lapisan


tersembunyi dengan lapisan output

c. Jaringan Syaraf dengan Lapisan Kompetitif (Competitive Layer Net)


Arsitektur ini memiliki bentuk yang berbeda dengan ke dua jaringan
sebelumnya, yaitu antarneuron dalam jaringan ini dapat saling dihubungkan.
3. Fungsi Aktivasi
Menurut Fausett (1994: 17), fungsi aktivasi akan menentukan output suatu
unit (mengubah sinyal input menjadi sinyal output) yang akan dikirim ke unit lain.
Ada beberapa fungsi aktivasi yang sering digunakan dala jaringan syaraf tiruan.
Fungsi aktivasi yang disediakan pada toolbox Matlab antara lain:

38

a.

Fungsi Undak Biner

Fungsi undak biner sering digunakan pada jaringan lapisan tunggal untuk
mengkonversikan input dari suatu variable yang bernilai kontinu ke suatu output
biner ( 0 atau 1). Menurut Fausett (1994: 17), fungsi undak biner (hard limit)
dirumuskan sebagai berikut:

0, jika x < 0
y=
.
1, jika x 0

(2. 26)

Gambar 2.30 Fungsi undak biner (hard limit)

b. Fungsi Bipolar (Symetric Hard Limit)


Output yang dihasilkan oleh fungsi bipolar berupa 1 , 0 atau 1 . Fungsi bipolar
dirumuskan sebagai (Kusumadewi dan Hartati, 2010: 78):

1, jika x 0
y=
.
1, jika x < 0

(2. 27)
1

0
-1

Gambar 2.31 Fungsi bipolar (symetric hard limit)

c. Fungsi Linear (purelin)


Fungsi linear memiliki nilai output yang sama dengan nilai inputnya. Fungsi
linear disebut juga dengan fungsi identitas dan dirumuskan sebagai (Demuth dan
Beale, 2002:2-3):

39

y=x

(2. 28)

1
-1
1
-1

Gambar 2.32 Fungsi linear (identitas)

d. Fungsi Saturating Linear


1

Fungsi ini bernilai 0 jika inputnya kurang dari 2 dan bernilai 1 jika inputnya
1

lebih dari 2. Sedangkan jika nilai inputnya diantara 2 dan


1

1
2

maka outputnya akan

bernilai sama dengan nilai input ditambah 2. Menurut Kusumadewi dan Hartati
(2010:79-80), fungsi saturating linear dirumuskan sebagai:

jika x > 0,5


1;

y = x + 0,5; jika 0,5 x 0,5


0;
jika x < 0,5

(2. 29)

-0,5

0,5

Gambar 2.33 Fungsi saturating linear

e. Fungsi Symetric Saturating Linear


Menurut Kusumadewi dan Hartati (2010:80-81), fungsi symmetric saturating
linear dirumuskan sebagai berikut:

40

1;

=
y x;
1;

jika x > 1
jika 1 x 1
jika x < 1

(2. 30)

1
-1
1
-1

Gambar 2.34 Fungsi saturating linier

f. Fungsi Sigmoid Biner


Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan metode
backpropagation. Fungsi sigmoid biner memiliki nilai pada rentang 0 sampai 1
sehingga sering digunakan untuk jaringan syaraf yang membutuhkan nilai output
yang terletak pada interval 0 sampai 1. Namun, fungsi ini juga dapat digunakan
oleh jaringan syaraf yang nilai outputnya 0 atau 1. Menurut Demuth dan Beale
(2002:2-4), fungsi sigmoid biner dirumuskan sebagai:
=
y

( x)
f=

dengan:

1
1 + e x ;

(2. 31)

=
f '( x) f ( x) [1 f ( x)]
Fungsi turunan ini yang akan digunakan pada proses perambatan balik
(backpropagation)
Contoh 2. 22:
Fungsi aktivasi sigmoid biner dari himpunan fuzzy suhu udara pada X = [22 26]
dengan gradien 1 dan pusat kurva di titik 24.

41

Gambar 2.35 Fungsi sigmoid biner untuk himpunan fuzzy


suhu udara pada X

g. Fungsi Sigmoid Bipolar


Fungsi ini hampir sama dengan fungsi sigmoid biner, hanya saja output dari
fungsi ini memiliki range antara 1 sampai 1. Menurut Demuth dan Beale
(2002:2-4), fungsi sigmoid bipolar dirumuskan sebagai:
=
y f=
( x)

1 e x
2
=
1 .
x
1+ e
1 + e x

(2. 32)

dengan:
1
f '( x) =
[1 + f ( x)][1 f ( x)]
2

4. Algoritma Pembelajaran
Algoritma pembelajaran merupakan bagian terpenting dari jaringan syaraf
karena tujuan utamanya yaitu melakukan pengaturan terhadap bobot-bobot yang
ada pada jaringan syaraf, sehingga diperoleh bobot akhir yang tepat sesuai dengan
pola data yang dilatih. Nilai bobot akan bertambah, jika informasi yang diberikan
oleh neuron yang bersangkutan tersampaikan, sebaliknya bobot akan berkurang
jika informasi tidak disampaikan oleh suatu neuron ke neuron yang lain.
Ada 2 metode pembelajaran yaitu metode pembelajaran terawasi
(supervised learning) dan metode pembelajaran tak terawasi (unsupervised
learning), Menurut Kusumadewi dan Hartati (2010:84).

42

a. Pembelajaran tak terawasi (unsupervised learning)


Pada metode ini, tidak diperlukan target output. Hasil yang diharapkan
selama proses pembelajaran juga tidak dapat ditentukan. Pembelajaran ini
bertujuan untuk mengelompokkan unit-unit yang hampir sama dalam suatu area
tertentu. Penggunaan pembelajaran ini sangat cocok untuk pengelompokkan
(klasifikasi) pola.
b. Pembelajaran terawasi (supervised learning)
Dalam algoritma ini, output yang diharapkan sudah diketahui sebelumnya.
Misalkan pada proses pembelajaran untuk operasi AND, satu pola input akan
diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan
disepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output. Lapisan
output akan membangkitkan pola output yang akan dicocokkan dengan pola
output targetnya. Apabila terjadi perbedaan antara pola output hasil pembelajaran
dengan pola target, maka akan muncul error. Apabila error yang dihasilkan masih
cukup besar, maka masih perlu dilakukan pembelajaran lagi.
1) Algoritma Backpropagation
Percepton termasuk salah satu bentuk jaringan syaraf yang sederhana atau satu
lapisan dan biasanya digunakan untuk mengelompokkan suatu tipe pola tertentu
yang sering dikenal dengan pemisahan secara linear. Karena dalam skripsi ini
menggunakan jaringan syaraf banyak lapisan, maka percepton tidak dapat
digunakan.

Algoritma

yang

digunakan

disini

yaitu

backpropagation.

Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya


digunakan oleh jaringan syaraf dengan banyak lapisan untuk mengubah bobotbobot yang terhubung dengan neuron-neuron yang ada pada lapisan
terembunyinya.

43

Algoritma backpropagation menggunakan error output untuk mengubah


nilai bobot-bobotnya dalam arah mundur ( backward ). Error ouput akan didapat
dengan cara mengerjakan tahap perambatan maju ( forward propagation) terlebih
dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan
menggunakan fungsi aktivasi yang dapat dideferensiasikan, seperti sigmoid
(Fausett, 1994):
e x e x
e x + e x

(2. 33)

1 e 2 x
1 + e 2 x

(2. 34)

f '( x) =
[1 + f ( x)][1 f ( x)]

(2. 35)

=
y f=
( x)

atau
( x)
y f=
=

dengan :

Arsitektur jaringan backpropagation ditunjukkan pada Gambar 2.36.


21

11

1
11
1

11

Lapisan Output
1

Lapisan
Tersembuny

Lapisan Input

Gambar 2.36 Arsitektur backpropagation jaringan syaraf

Bobot bias yang menuju ke neuron pertama dan kedua pada lapisan tersembunyi
adalah b1i, b1j dan b1p. Sedangkan bobot yang menghubungkan z1 dan z2 dengan
neuron pada lapisan output adalah w.

44

Pada penelitian ini, fungsi aktivasi yang digunakan antara lapisan input
dengan lapisan tersembunyi adalah fungsi sigmoid biner (Persamaan 2.31) dan
antara lapisan tersembunyi dengan lapisan output adalah fungsi linear (Persamaan
2.28).
Langkah-langkah Algoritma backpropagation (Fausett, 1994:294-296):
a) Inisialisasi bobot ( ambil bobot awal dengan nilai random yang cukup kecil)
b) Tetapkan:
1. Maksimum Epoh yaitu jumlah maksimum iterasi yang ditetapkan.
2. Target error yaitu batas toleransi error yang diijinkan
3. Learning Rate () yaitu laju pembelajaran, dimana semakin besar learning
rate akan berimplikasi pada semakin besarnya langkah pembelajaran.
c) Inisialisasi: Epoh = 0
d) Kerjakan langkah-langkah berikut selama ( Epoh < Maksimum Epoh) dan
(MSE < Target Error):
1. Epoh = Epoh + 1
2. Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran,
kerjakan:
Feedforward:
1. Tiap-tiap unit input ( xi , i = 1, 2,3,..., n ) menerima sinyal xi dan meneruskan
sinyal tersebut ke semua unit pada lapisan yang ada di atasnya, yaitu lapisan
tersembunyi (hidden layer).
2. Tiap-tiap unit pada lapisan tersembunyi ( z j , j = 1, 2,3,..., p ) menjumlahkan
sinyal-sinyal input terbobot sebagai berikut:
n

z _ in=
b1 j + xi vij
j

(2. 36)

i =1

45

b1 j = bias pada unit tersembunyi j


untuk menghitung sinyal outputnya digunakan fungsi aktivasi sebagai berikut:

z j = f ( z _ in j )

(2. 37)

kemudian sinyal tersebut dikirim ke semua unit di lapisan atasnya yaitu unitunit output. Langkah ini dilakukan sebanyak jumlah lapisan tersembunyi.
3. Tiap-tiap unit output ( , = 1,2,3, , ) menjumlahkan sinyal-sinyal input
terbobot sebagai berikut:

_ = + =
(2. 38)

dengan, 2 = bias pada unit output k

untuk menghitung sinyal outputnya digunakan fungsi aktivasi sebagai berikut:


= (_ )

(2. 39)

kemudian sinyal tersebut dikirim ke semua unit di lapisan atasnya yaitu unitunit output.
Backpropagation
1. Tiap-tiap unit output ( , = 1,2,3, , ) menerima target pola yang
berhubungan dengan pola input pembelajaran, hitung informasi errornya:

= ( )(_ )

(2. 40)

kemudian hitung koreksi bobot yang nantinya akan digunakan untuk


memperbaiki nilai w jk sebagai berikut:

w jk =
k z j

(2. 41)

selain itu, menghitung koreksi bias yang nantinya akan digunakan untuk
memperbaiki nilai b 2k , dan kirimkan k ke unit-unit pada lapisan di
bawahnya.

b2k =
k

(2. 42)

46

2. Tiap-tiap unit tersembunyi ( z j , j = 1, 2,3,..., p ) menjumlahkan delta inputnya


dari unit-unit yang berada pada lapisan di atasnya sebagai berikut:
m

_ in j = k w j k .

(2. 43)

k =1

untuk menghitung informasi error, kalikan nilai _ in j dengan turunan dari


fungsi aktivasinya:

j = _ in j f '( z _ in j )

(2. 44)

kemudian hitung koreksi bobot yang nantinya akan digunakan untuk


memperbaiki nilai vij sebagai berikut:

vij =
j xi

(2. 45)

selain itu, menghitung koreksi bias yang nantinya akan digunakan untuk
memperbaiki nilai b1 j :

b1 j =
j

(2. 46)

3. Tiap-tiap unit output ( ) memperbaiki bias dan bobotnya sebagai berikut:

w=
w jk (lama ) + w jk
jk (baru )

(2. 47)

b=
2k (baru ) b 2k (lama ) + b 2k

(2. 48)

Tiap-tiap unit hidden layer ( z j , j = 1, 2,..., p ) memperbaiki bias dan bobotnya


sebagai berikut:

vij=
(baru ) vij (lama ) + vij

(2. 49)

b1=
b1 j (lama ) + b1 j
j (baru )

(2. 50)

3. Hitung MSE
Inisialisasi bobot awal secara random
Dalam jaringan syaraf, proses pencapaian nilai minimum global terhadap nilai
eror dan cepat tidaknya proses menuju kekonvergenan sangat dipengaruhi oleh

47

pemilihan bobot awal. Biasanya bobot awal diinisialisasi secara random


dengan nilai antara 0.5 sampai 0.5 , 1 sampai 1 atau interval yang lain
(Fausett, 1994).

G. Neural Fuzzy System (NFS)


mIntegrasi antar komponen pada soft computing sering dikenal dengan
nama sistem hybrid. Salah satu integrasi tersebut yaitu Neural Fuzzy System atau
sering juga disebut dengan Neuro Fuzzy yang merupakan integrasi antara sistem
fuzzy dan jaringan syaraf tiruan. Sistem yang estimasi parameternya menggunakan
jaringan syaraf tiruan dan pemodelan utamanya menggunakan logika fuzzy.
Algoritma pembelajaran backpropagation pada Neuro Fuzzy digunakan untuk
mengidentfiikasi aturan-aturan fuzzy dan melatih fungsi keanggotaan dari
penalaran fuzzy tersebut (Kusumadewi dan Hartati, 2010:297).
1. Fuzzy C-Means (FCM)

Fuzzy C-Means adalah suatu tehnik pengklasteran data yang mana


keberadaan tiap-tiap data dalam suatu cluster ditentukan oleh nilai keanggotaan
(Kusumadewi dan Hartati, 2010:300). Tehnik ini pertama kali dipekenalkan oleh
Jim Bezdek pada tahun 1981.
Algoritma FCM adalah sebagai berikut (Zimmerman, 1991:234):
a. Menentukan:
1. Matriks X berukuran n m , dengan n = banyaknya data yang akan
dikelompokkan (cluster); dan m = banyaknya variabel input-output.

x11 x1m
X =

xn1 xnm

(2. 51)

dengan xnm = data ke-n pada variabel ke-m.

48

2. Jumlah cluster yang akan dibentuk =c, dengan 2 < < .


3. Pangkat (pembobot) =w, dengan w<1.

4. Maksimum iterasi.
5. Kriteria penghentian = (nilai positif yang sangat kecil).
6. Iterasi awal, = 1 = 1

b. Membentuk matriks partisi awal, U 0 , sebagai berikut:


( ) ( )
( ) ( )
=

( ) ( )

( )
( )

( )

(2. 52)

dengan ( ) = nilai keanggotaan setiap data ke-n pada kelas ke c.

c. Menghitung pusat cluster, V , untuk setiap cluster:

v11 v1m
V =

vc1 vcm

(2. 53)

vij =

(
k =1
n

ik

(
k =1

) w xkj
.
ik

(2. 54)

dengan:

vij = Pusat cluster variabel ke- j pada cluster ke- i

ik = Nilai keanggotaan data ke- k pada cluster ke- i

w = Pangkat (pembobot)
xkj = Data ke- pada variabel ke-
d. Memperbaiki derajat keanggotaan setiap data pada setiap cluster (perbaiki
matriks partisi), sebagai berikut:

49

C d
ik = ik
j =1 d jk

2/( w 1)

(2. 55)

dengan:
1/2

dik = d ( xk vi )= ( xkj vij )


j =1

(2. 56)

dimana, ik = Nilai keanggotaan data ke- k pada cluster ke- i .

dik = Jarak antara pusat cluster ke- i dengan data ke- k .


e. Menentukan kriteria berhenti, yaitu perubahan matriks partisi pada iterasi
sekarang dengan iterasi sebelumnya, sebagai berikut:

=
U t U t 1 .

(2. 57)

Apabila , maka iterasi dihentikan, namun apabila > , maka naikkan


iterasi ( t = t + 1 ) dan kembali ke langkah 3. Pencarian nilai dapat dilakukan
dengan mengambil elemen terbesar dari nilai mutlak selisih antara ik (t )
dengan ik (t 1) .
2. Jaringan Syaraf sebagai Pengendali Penalaran Fuzzy
Konsep dasar dari pemakaian jaringan syaraf sebagai pengendali penalaran
fuzzy

adalah

menggunakan

jaringan

syaraf

untuk

merealisasikan

atau

membangkitkan sistem inferensi fuzzy model Sugeno baik pada bagian anteseden
maupun pada bagian konsekuen (Lin, 1996:507).
Takagi-Sugeno dan Hayashi menggunakan jaringan syaraf tiruan dengan
algoritma pembelajaran backpropagation untuk membangun himpunan-himpunan
fuzzy pada bagian anteseden, dan fungsi inferensi yang diberikan memiliki format
sebagai berikut (Lin, 1996:507).:
: = ( , , , ) = ( , , , )
50

(2. 58)

dengan:
s

= aturan inferensi fuzzy ke-s

= himpunan fuzzy pada aturan ke- s bagian anteseden

= jaringan backpropagation dengan input ( x1 , x2 ,..., xm ) dan output .


3. Rule-Based Neural Fuzzy Modeling

Pemodelan fuzzy biasanya didasarkan pada sistem yang hendak dibangun


menggunakan

sistem

inferensi

fuzzy

(Lin,

1996:511).

Tetapi

untuk

mengidentifkasi aturan-aturan fuzzy tersebut tidak mudah, terutama apabila sistem


fuzzy tersebut adalah sistem non linear yang sangat kompleks.
Metode

pemodelan

fuzzy

melalui

pembelajaran

jaringan

syaraf

backpropagation terbagi menjadi 3 tipe Fuzzy Modeling Networks (FMN)


(Kusumadewi dan Hartati, 2010:334) yaitu FMN tipe I, tipe II, dan tipe III.
Pada penelitian ini digunakan FMN Tipe III yaitu aturan fuzzy yang
mempunyai konsekuen berupa persamaan linear order pertama. Format aturan
untuk FMN Tipe III yaitu (Lin, 1996:514-515):
a) Format aturan untuk FMN tipe II
: = ; = , , ,
dengan,

R i = aturan fuzzy ke- i

Ai1 = himpunan fuzzy ke- i pada bagian anteseden untuk x1

Ai 2 = himpunan fuzzy ke- i pada bagian anteseden untuk x2


k

= konstanta

b) Format aturan untuk FMN tipe III


: 1 1 2 2 = (1 , 2 ); = 1,2, ,
51

(2. 59)

=
y*

f (x , x )
i i

=
r

i =1

i =1

f ( x , x )
i =1

i i

(2. 60)

(1 , 2 ) = 0 + 1 1 + 2 2 ; , = 0,1,2 adalah konstanta.


dengan,
Ri

= aturan fuzzy ke- i

Ai1

= himpunan fuzzy ke- i pada bagian anteseden untuk x1

Ai 2

= himpunan fuzzy ke- i pada bagian anteseden untuk x2

fi ( x1 , x2 ) = persamaan linear orde satu untuk aturan ke- i


y*

= output akhir lapisan

H. ARIMA
Model ARIMA (Autoregressive Integrated Moving Average) merupakan
salah satu metode peramalan analisis runtun waktu yang sangat baik ketepatannya
untuk peramalan jangka pendek, sedangkan untuk peramalan jangka panjang
ketepatannya kurang baik karena cenderung flat (mendatar/konstan). ARIMA
pertama kali diperkenalkan oleh George Box dan Gwilym Jenkins pada tahun
1976, oleh karena itu ARIMA disebut juga metode time-series Box-Jenkins
(Makridakis, 1999:381).
1. Fungsi Autokorelasi
Fungsi autokorelasi atau Autocorelation Function (ACF) digunakan untuk
menjelaskan hubungan antara nilai-nilai suatu deret berkala untuk selang waktu
(time lag) yang berbeda. Koefisien korelasi digunakan untuk menetapkan ada atau
tidak adanya faktor musim (seasonality) didalam deret berkala tertentu dan untuk
menentukan kestasioneran data (Makridakis, 1999: 512).

52

Dalam suatu proses stasioner suatu data (Yt), rata-rata ( ) = , variansi

dari Yt adalah ( ) = ( )2 = 2 dan t adalah waktu pengamatan,

kovarians antara Yt dan Yt+k dapat ditulis sebagai berikut, (Wei, 2006: 10):
= ( , + ) = ( )(+ )
(2. 61)

dan koefisien autokorelasi lagk (k) antara observasi Yt dan Yt+k pada populasi
adalah: (Wei, 2006:10)
=

( ,+ )

()(+ )

(2. 62)

Dimana ( ) = (+ ) = 0 , dengan

= fungsi kovarians pada lag-k

= fungsi autokorelasi pada lag-k

= waktu pengamatan, t = 1,2,3,

= koefisien variable Y pada periode t

= koefisienvariabel Y pada periode t + k

Fungsi autokeralasi sampel untuk time-lag 1, 2, 3, , k dinotasikan dengan dan


dapat dicari sebagai berikut (Makridakis, 1999:339):
=

= ( )(+ )

=()

(2. 63)

dimana

= koefisien autokorelasi pada lag k


= koefisien variabel Y pada periode t
= koefisien variabel Y pada periode t + k
= koefisien ratarata variabel Y

53

2. Fungsi Autokorelasi Parsial


Fungsi autokorelasi parsial atau Partial Autocorrelation Function (PACF)
digunakan untuk menunjukkan besarnya hubungan antara nilai suatu variabel saat
ini (Yt) dengan nilai sebelumnya (Yt-k) dari variable yang sama (nilai-nilai untuk
berbagai kelambatan waktu) dengan menganggap pengaruh dari semua
kelambatan waktu lainnya adalah konstan (Makridakis, 1999:526). Misalkan Yt
adalah proses yang stasioner dengan E(Yt) = 0, selanjutnya Yt+k dapat dinyatakan
sebagai model linear (Wei,2006:12):
+ = + + + + + + +

(2. 64)

dimana adalah parameter ke-i dari persamaan regresi dan + adalah galat

berdistribusi normal yang tidak berkorelasi dengan Yt+k-j untuk j = 1, 2, 3, ,k.


autokerelasi parsial dari Yt pada lag k didefinisikan sebagai (Wei,2006:15):

(2. 65)

3. Stasioneritas dan Nonstasioneritas


Stasioneritas mempunyai arti bahwa fluktuasi data berada di sekitar suatu
nilai rata-rata yang konstan, tidak tergantung pada waktu dan varians dari
fluktuasi tersebut atau dapat diartikan bahwa tidak terdapat pertumbuhan atau
penurunan pada data (Makridakis, 1999:351)..
Kestasioneran data dapat dilihat melalui bentuk visualisasi dari suatu plot
data time series, plot ACF dan PACF. Plot ACF yang cenderung lambat atau
turun secara linear mengindikasikan data belum stasioner dalam rata-rata
(Makridakis,1999:351).

54

Data yang akan digunakan untuk peramalan harus memenuhi kondisi yang
stasioner. Data yang tidak stasioner mempunyai 3 kondisi, yaitu tidak stasioner
dalam variansi, tidak stasioner dalam rata-rata, ataupun tidak stasioner keduanya.
Data yang tidak stasioner dalam variansi dilakukan transformasi untuk
membuat data tersebut stasioner. Data yang tidak stasioner dalam rata-rata perlu
dilakukan pembedaan (differencing) untuk menstasionerkannya. Data yang tidak
stasioner keduanya, dilakukan transformasi dan pembedaan (differencing) untuk
membuatnya stasioner.
a) Transformasi Box-Cox
Transformasi Box-Cox digunakan untuk mengetahui kestasioneran data dalam
varians. Jenis transformasi yang digunakan tergantung dari nilai estimasi , yaitu
parameter transformasi. Tabel 2.2 menunjukkan transformasi yang harus
dilakukan pada data time series berdasarkan estimasi nilai yang diperoleh (Wei,
2006: 84-85).
Tabel 2. 2 Transformasi Time Series
Berdasarkan Nilai Estimasi
Nilai
Transformasi
1
-1

-0.5

0
0.5
1

(tidak ada transformasi)

b) Pembedaan (differencing)
Differencing digunakan untuk mengetahui kestasioneran data dalam mean.
Banyaknya proses differencing dilakukan sesuai dengan kebutuhan, sampai mean
data tersebut telah stasioner. Notasi yang digunakan dalam metode pembedaan
adalah operator shift mundur (backward shift) yang disimbolkan dengan B

55

(Makridakis,1999:382). Rumus umum untuk pembedaan

ke-d yaitu sebagai

berikut
= ( )

(2. 66)

4. Model Autoregressive Integrated Moving Average (ARIMA)


Model ARIMA dibagi menjadi tiga yaitu model autoregressive (AR),
model moving average (MA) dan model campuran ARMA yang mempunyai
karakteristik dari dua model yaitu AR dan MA.
a) Model Autoregressive (AR)
Secara umum, model AR orde ke-p atau dinotasikan dengan AR(p) mempunyai
bentuk umum sebagai berikut (Hanke dan Wichern,2005:386):
= + + +

(2. 67)

dengan:

= koefisien variabel Y pada periode t

1 , ,

= koefisien parameter autoregressive

1 , , = koefisien variabel Y pada time-lag t-1, , t-p

= koefisien galat pada periode t.

Persamaan (2.67) dapat ditulis dalam bentuk


= atau () =

(2. 68)

dengan () = 1 1 2 2 + .

Misalkan AR dengan order 1 atau AR(1) dapat ditulis sebagai berikut:


= + atau ( ) =

(2. 69)

b) Model Moving Average (MA)

Secara umum model MA orde ke-q atau MA(q) dapat ditulis sebagai berikut:
(Wei,2006:47)

56

(2. 70)

dengan

= koefisien variable Y pada waktu t

1 , ,

= koefisien parameter model Moving Average.

, 1 , ,

= koefisien galat pada waktu t, t -1,, t -q

Persamaan (2.70) dapat ditulis dalam bentuk

= ( )

(2. 71)

c) Model Autoregressive Moving Average (ARMA)


Model ARMA merupakan gabungan dari model AR (p) dan MA (q). Bentuk
umum dari proses ARMA (p,0,q) adalah sebagai berikut (Hanke & Wichern,

2005:389):
= + + +
(2. 72)

Misalkan model ARMA(1,1) dinyatakan sebagai berikut


= +

(2. 73)

d) Model Autoregressive Integrated Moving Average (ARIMA)


Model autoregressive integrated moving average (ARIMA) merupakan model
ARMA (p,0,q) yang nonstasioner. Apabila dalam pemodelan ARMA (p,0, q)
dilakukan proses pembedaan (differencing) agar data menjadi stasioner proses
pembedaan sebanyak d kali, maka model ARMA(p,0, q) menjadi model ARIMA (p,
d, q).
Bentuk umum model ARIMA (p, d, q) ditulis dalam persamaan berikut (Pankratz,
1983:99):

57

( )( ) = + (

(2. 74)

e) Model ARIMA Musiman


Data time series musiman mempunyai karakteritik adanya korelasi
beruntun yang kuat pada periode musiman yaitu waktu yang berkaitan dengan
banyak observasi pada per periode musim.
Secara umum, model ARIMA musiman dinotasikan sebagai berikut:
ARIMA(p,d,q)(P,D,Q)s
dengan
(p,d,q)

= bagian tidak musiman dari model

(P,D,Q)

= bagian musiman dari model

= orde musiman untuk AR

= orde musiman untuk MA

= banyak seasonal dIFferencing

= periode musim.
Model ARIMA musiman dapat digunakan untuk meramalkan data yang

mengandung pola musiman dengan periode yang tetap. Bentuk umum dari model
ARIMA musiman adalah sebagai berikut:
( ) ()(1 ) (1 ) = () ( )

dengan
()

= koefisien AR tidak musiman

( )

= koefisien AR musiman

()

( )

= koefisien MA tidak musiman

= koefisien MA musiman

58

(2. 75)

5. Proses White Noise


Apabila { } terdiri dari variabel random (acak) yang tidak berkorelasi

dan berdistribusi tertentu dengan ratarata konstan ( ) = 0, variansi konstan

( ) = 2 dan = ( + ) = 0 untuk k 0, maka { } adalah suatu

proses white noise (Wei, 2006: 15-16).

Pada proses white noise, nilai ACF dan PACF tidak berbeda signfiikan
dengan nol. Untuk mengetahui bahwa suatu proses { } white noise, dilakukan

uji Ljung-Box-Pierce pada analisis galat. Hipotesis yang digunakan dalam Uji

Ljung-Box-Pierce sebagai berikut (Wei, 1990: 153):


a) Ho: 1 = = = 0 (autokorelasi galat tidak signifikan)
H1: 0, = 1,2, (autokorelasi galat signfikan).

b) Taraf signifikansi : = 0,05

c) Statistik uji : = ( + 2)
=1

(2. 76)

dengan,
n

: banyaknya data

: lag ke

: banyaknya lag yang diuji

: dugaan autokorelasi galat periode k.

d) Kriteria keputusan: H0 ditolak jika Qhitung > 2 ,df (tabel) dengan df adalah
m dikurangi banyaknya parameter pada model atau <

6. Prosedur Pemodelan ARIMA

Dasar pendekatan metode Box-Jenkins ada tiga tahap: identifikasi, model,


dan pengujian serta diagnostik model (Makridakis,1999:381). Langkah-langkah
pemodelan ARIMA sebagai berikut:

59

1) Identifikasi Model
Langkah pertama yang harus dilakukan adalah membuat plot ACF dan
PACF untuk mengetahui kestasioneran suatu data. Dari plot ACF dan PACF juga
dapat digunakan untuk menentukan order dari AR dan MA. Tabel 2.3 berikut
menunjukkan identifikasi model ARIMA berdasarkan plot ACF dan PACF
(Wei,2006:109):
Tabel 2. 3 Identifikasi Model dengan Pola Grafik ACF dan PACF
Model

Non Musiman

Parameter

ACF

MA(q)

Cuts off (terputus) setelah


lag ke-q

AR(p)
ARMA(p,q)

MA(q)

Musiman

AR(p)

ARMA(p,q)

Dies down (menurun


secara eksponensial)\
Dies down (menurun
secara eksponensial)
setelah lag (q-p).
Cuts off setelah lag ke-Qs
Dies down (menurun
secara eksponensial)
pada lag musiman.
Dies down (menurun
secara eksponensial)
pada lag musiman.

PACF
Dies down (menurun
secara eksponensial)
setelah lag (q-p).
Cuts off (terputus) setelah
lag ke-p
Dies down (menurun
secara eksponensial)
setelah lag (q-p).
Dies down (menurun
secara eksponensial) pada
lag musiman.
Cuts off setelah lag ke-Ps
Dies down (menurun
secara eksponensial)
pada lag musiman.

2) Uji Signifikansi Parameter


Uji signifikansi parameter dilakukan menggunakan metode maximum
likelihood. Uj signifikansi parameter bertujuan untuk mengetahui signifikansi
parameter yang digunakan yaitu dengan melihat nilai dari p-value.
Langkah-langkah pengujiannya sebagai berikut:
a) Hipotesis pengujian:
Hipotesis nol untuk parameter model AR (Autoregressive) adalah
Ho: i = 0 , dimana i = 1, 2, , k (parameter AR tidak signifikan dalam
model)
H1: i 0 (parameter AR signifikan dalam model)

60

Hipotesis nol dari parameter MA (Moving Average) adalah


Ho: i = 0 , dimana i = 1, 2, , k (Parameter MA tidak signifikan dalam
model)
H1: i 0 (Parameter MA signIFikan dalam model)
b) Taraf signifikansi
c) Statistik uji

: t hitung AR =

k
SE (k )

t hitung MA =

k
SE (k )

(2. 77)

(2. 78)

dengan

= penduga untuk k

= penduga untuk k

SE( k )

= standar eror dari k

SE ( k )

= standar eror dari k

d) Kriteria Keputusan: tolak Ho jika | t | > t /2,df , df = n p dengan p

banyaknya parameter dan n banyak pengamatan atau tolak Ho jika p-value


< 0,05.

3) Pemeriksaan Diagnosis Model


Setelah menentukan nilai nilai parameter dari model ARIMA sementara,
selanjutnya akan dilakukan pemeriksaan diagnosis pada model ARIMA sementara
untuk membuktikan bahwa model ARIMA sementara tersebut cukup memadai
dan menjadi model terbaik yang akan digunakan untuk peramalan. Pemeriksaan
diagnosis dilakukan dengan analisis galat. Analisis galat yaitu melakukan
pemeriksaan terhadap nilai galat (et) yang dihasilkan dari tahap uji signifikansi

61

parameter, yaitu dilakukan uji white noise dengan uji independensi galat dan uji
normalitas galat.

a. Uji Independensi Galat


Uji independensi galat dilakukan dengan menggunakan uji LJung-Box. Langkahlangkah pengujiannya sebagai berikut (Wei, 1990: 153):
1. H0 : 1 = 2 =. . . = = 0 (galat independent)

H1 : 0; untuk i = 1,2,...,K (galat dependent)

2. Taraf signifikansi :

3. Statistik Uji : Ljung-Box


4. Kriteria keputusan : H0 ditolak jika Q hitung > 2 (, K-p-q) , dengan p

adalah banyak parameter AR dan q adalah banyak parameter MA atau H0


ditolak jika p value .

b. Uji Normalitas Galat


1. H0
H1

: galat { } berdistribusi normal

: galat { } berdistribusi tidak normal

2. Taraf signifikansi:

3. Statistik uji: kolmogorov smirnov


= = |0 () ()| dengan

0 () = suatu fungsi distribusi frekuensi kumulatif yang terjadi di bawah


distribusi normal

() = suatu fungsi distribusi frekuensi kumulatif yang diobservasi

4. Kriteria keputusan: H0 ditolak jika p value (D)

62

I. MAPE dan MSE


Pemilihan model terbaik untuk prediksi udara berdasarkan pada nilai Mean
Absolute Percentage Error (MAPE) dan Mean Square Error (MSE) sesuai
dengan prinsip parsimony, yaitu suatu kriteria pemilihan model terbaik dengan
memilih nilai yang minimal dan paling sederhana. Prinsip parsimony merupakan
hal yang penting karena pada prakteknya umumnya model yang parsimony
menghasilkan ramalan yang lebih baik (Pankratz, 1983: 81).Perhitungan nilai
MAPE dan MSE adalah sebagai berikut (Hanke dan Wichern, 2005:80):
= ( )

(2. 79)

dan

=
dengan,

|( )|

(2. 80)

= target output ke-t


= output jaringan ke-t

63

BAB III
METODE PENELITIAN
A. Metode Penelitian
Penelitian ini menerapkan metode deskriptif dengan pendekatan kuantitatif
yang didasari oleh filsafat positivisme (suatu peristiwa nyata) yang menekankan
fenomena-fenomena objektif dan dikaji dengan menggunakan angka-angka,
pengolahan statistik, struktur dan percobaan terkontrol.

B. Jenis dan Sumber Data Penelitian


Jenis data yang digunakan dalam penelitian ini adalah data sekunder yang
merupakan data bulanan dari bulan Januari 2006 s/d Desember 2012. Sumber data
berasal dari stasiun BMKG Yogyakarta.

C. Tekhnik Analisis Data Penelitian


Tehnik analisis data yang digunakan pada penelitian ini adalah model
Neuro Fuzzy Sugeno orde satu. Neuro Fuzzy mampu menggabungkan kelebihan
sistem fuzzy dalam mengaplikasikan kemampuan berpikir manusia dan
kemampuan jaringan syaraf tiruan dalam mengenali sistem melalui proses
pembelajaran untuk memperbaiki parameter.

D. Desain Penelitian
Desain penelitian adalah kerangka kerja yang digunakan sebagai dasar
dalam melakukan penelitian, desain penelitian yang baik akan menghasilkan
penelitian yang efektif dan efisien. Gambar 3.1 berikut ini menunjukkan desain
penelitian ini.

64

Studi Pustaka

Sistem Neuro Fuzzy

Suhu Udara
Perancangan Model

Variabel Input

Pemograman dengan
Matlab

Variabel Output

Pengujian Program
Matlab

Seleksi Model

Peramalan

Kesimpulan

Gambar 3.1 Desain penelitian

Studi pustaka merupakan bagian penting dalam penelitian karena


berfungsi untuk membantu peneliti dalam menemukan teori-teori yang mendasari
masalah bidang yang akan diteliti. Disamping itu peneliti akan memperoleh
informasi tentang penelitian-penelitian sejenis yang pernah dilakukan sebelumnya
atau yang berkaitan dengan penelitiannya. Penelitian ini membahas tentang
prediksi suhu udara dengan model Neuro Fuzzy Sistem (NFS), sehingga studi
pustaka yang dibutuhkan adalah teori-teori yang berhubungan dengan model

65

Neuro Fuzzy System (NFS) dan teori tentang suhu udara. Data suhu udara yang
digunakan adalah suhu udara bulanan selama 7 tahun terakhir yaitu periode
Januari 2006 s/d Desember 2012.
Langkah selanjutnya adalah merancang model NFS, dari masing-masing
model tersebut ditentukan input dan output yang nantinya akan dibagi menjadi
data pelatihan dan data pengujian. Data tersebut kemudian akan dilatih dengan
pembelajaran

backpropogation

menggunakan

program

Matlab.

Hasil

pembelajaran tersebut kemudian diuji sehingga menghasilkan model terbaik yang


akan digunakan untuk peramalan. Dari hasil peramalan tesebut ditarik sebuah
kesimpulan tentang keakuratan model dalam memprediksi.

66

BAB IV
PEMBAHASAN
A. Sistem Neuro Fuzzy
Sistem neuro fuzzy atau Neural Fuzzy System (NFS) digunakan untuk
akusisi pengetahuan dan pembelajaran. Jaringan syaraf diinisialisasi dengan
pengetahuan pakar dalam bentuk simbol, kemudian dilatih berdasarkan inputoutput sistem nyata. Pengetahuan dalam bentuk simbol yang diperoleh dari
pelatihan tersebut kemudian direpresentasikan dalam logika fuzzy.
Neural Fuzzy System (NFS) dirancang untuk merealisasikan proses
penalaran fuzzy. NFS dapat mengidentifikasi aturan-aturan fuzzy dan melatih
fungsi keanggotaan dari penalaran fuzzy tersebut dengan menggunakan algoritma
pembelajaran backpropagation. Biasanya, NFS memiliki neuron-neuron yang
terpisah antara bagian anteseden, bagian operator, dan bagian konsekuen. NFS
berupa jaringan dengan banyak lapisan yang digunakan untuk menentukan relasi
input-output pada sistem fuzzy.
Langkah-langkah pembentukan sistem inferensi fuzzy model Sugeno
melalui pengendali jaringan syaraf adalah sebagai berikut (Lin. 1996: 509-510).
1. Pemilihan variabel input-output dan data pelatihan
Calon input, x j , j = 1, 2,..., n , akan dipilih variabel input yang relevan,
yang berhubungan dengan output yi , i = 1, 2,..., N , dengan menggunakan metode
eliminasi backward, dengan fungsi biaya Sum Squared Error (SSE). Variabelvariabel yang tidak diperlukan akan dieliminasi, dan mempertahankan variabelvariabel yang memberikan korelasi yang cukup signifikan terhadap variabel
output yi. Pasangan data yang telah terpilih dibagi menjadi Nt training data (TRD)

67

dan Nc checking data (CHD) dengan komposisi 75% untuk TRD dan 25% CHD
dari banyaknya pasangan data yang terpilih, sehingga + = .
2. Pengelompokan (clustering) data pelatihan

Data pelatihan (TRD) dibagi menjadi r kelas dengan menggunakan


metode pengklasteran Fuzzy C-Means (FCM) sehingga jaringan akan memiliki r
buah aturan R S , s = 1, 2,..., r . Pasangan input dan output pada aturan ke- s

direpresentasikan sebagai xis , yis , i = 1, 2,..., N s dengan N s adalah banyak data


yang masuk pada kelas ke- s .
3. Pembelajaran jaringan syaraf yang berhubungan dengan bagian
anteseden (bagian IF) pada aturan-aturan inferensi fuzzy
Vektor input pada TRD (Lin, 1996:509) yaitu

1; k = s
mik =
0; k s
=
dengan mi

(4. 1)

m , m ,..., m ) , i
(=
1
i

2
i

r
i

1, 2,3,..., N t

Nilai keanggotaan setiap data dapat diperoleh sebagai output jaringan yang telah
dilatih (Lin, 1996:509) yaitu
s
A=
N ; s 1, 2,..., r
( xi ) m=
1, 2,...,=
i ; i

(4. 2)

adalah nilai keanggotaan tiap data dalam himpunan fuzzy A pada aturan fuzzy
ke-s bagian anteseden.

4. Pembelajaran jaringan syaraf yang berhubungan dengan bagian


konsekuen (bagian THEN) pada aturan-aturan inferensi fuzzy.
Pada bagian ini dilakukan pembelajaran jaringan syaraf bagian konsekuen

) dan target output , i =


(THEN) dari dengan input = (1
, 2
, ,

1,2,,Ns. Hasil pelatihan akan diujikan pada CHD, dengan input =


68

(1
), i = 1,2,,Nc untuk mendapatkan SSE sebagai berikut (Lin,
, 2
, ,

1996:510) :

[ ( ) ( )]
= =

(4. 3)

untuk = 1,2, , .

Estimasi ( ) diperoleh dari output jaringan. Error dengan pembobotan


dihitung sebagai berikut (Lin, 1996):

= =
( )[ ( ) ( )]

(4. 4)

dengan:

= aturan inferensi fuzzy ke-s

= target output ke-i

= banyak pasangan data CHD

( ) = nilai keanggotaan tiap dalam himpunan fuzzy A pada aturan fuzzy


ke-s bagian anteseden

( )

= output jaringan hasil pembelajaran tiap pada setiap aturan inferensi


fuzzy pada bagian konsekuen

5. Penyederhanaan bagian konsekuen (bagian THEN) menggunakan


metode backward.
Variabel input yang terpilih tidak semuanya memiliki kontribusi yang
cukup baik. Oleh karena itu, salah satu variabel dapat dieliminasi dan kemudian

) sebagai berikut (Lin.


melatih jaringan kembali untuk mendapatkan SSE (

1996:510):

=
=[ ( ) ( )]

(4. 5)

untuk = 1,2, , dengan,

= target output ke-i

69

= banyak pasangan data CHD

( ) = nilai keanggotaan tiap dalam himpunan fuzzy A pada aturan fuzzy


ke-s bagian anteseden dengan eliminasi variabel input

( )

= output jaringan hasil pembelajaran tiap pada setiap aturan inferensi


fuzzy pada bagian konsekuen dengan eliminasi variabel input

Jika
<
maka dapat dihilangkan dan proses ini diulangi hingga

>
.
terpenuhi

Setelah terpenuhi
>
, akan ditentukan parameter konsekuen untuk

tiap dengan menggunakan metode Least Square Estimator (LSE) untuk


mengidentifikasi parameter-parameter linearnya.
6. Penentuan output akhir
Output akhir dari jaringan dapat diperoleh sebagai berikut (Lin,

1996:510):
=

= ( ) ( )

dengan,

= ( )

; = , , ,

= banyaknya cluster

= output akhir jaringan.

(4. 6)

( )

= nilai keanggotaan tiap dalam himpunan fuzzy A pada aturan

( )

= output jaringan hasil pembelajaran tiap pada setiap aturan

fuzzy ke-s bagian anteseden

inferensi fuzzy pada bagian konsekuen

B. Aplikasi Model Sistem Neuro Fuzzy Untuk Memprediksi Suhu Udara


Pada penelitian ini, model Neuro Fuzzy yang digunakan untuk
memprediksi suhu udara adalah Fuzzy Modeling Network (FMN) tipe III dengan

70

bagian konsekuen berupa persamaan linear atau sering dikenal sebagai sistem
inferensi fuzzy model Sugeno orde satu. Jaringan yang dibangun dengan algoritma
pembelajaran backpropagation, fungsi aktivasi yang digunakan antara lapisan
input dan lapisan tersembunyi adalah fungsi aktivasi sigmoid biner (Persamaan
(2.31)), dan fungsi aktivasi yang digunakan antara lapisan tersembunyi dengan
lapisan output adalah fungsi linear (Persamaan (2.28)).
Prediksi suhu udara mengunakan data suhu udara sebelumnya dengan
faktor yang mempengaruhinya yaitu kelembaban udara. Data yang digunakan
adalah data pengamatan suhu udara dan kelembaban yang tercatat di statsiun
BMKG Yogyakarta selama 7 tahun terakhir yaitu dimulai pada bulan Januari 2006
sampai dengan bulan Desember tahun 2012.
Prediksi dengan model Neuro Fuzzy Sugeno ini terbentuk empat model
antara lain model Neuro Fuzzy orde nol dengan input suhu udara bulan-bulan
sebelumnya, model Neuro Fuzzy orde nol dengan input suhu udara dan
kelembaban udara bulan-bulan sebelumnya, model Neuro Fuzzy orde satu dengan
input suhu udara bulan-bulan sebelumnya, model Neuro Fuzzy orde satu dengan
input suhu udara dan kelembaban udara bulan-bulan sebelumnya.
1. Model 1: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy Orde
Nol dengan Input Suhu Udara Bulan-bulan Sebelumnya
Data suhu udara yang digunakan untuk prediksi dapat dilihat pada Tabel 1
Lampiran 2. Plot suhu udara bulan Januari 2006 s/d Desember 2012 adalah
sebagai berikut.

71

Gambar 4. 1 Plot time series suhu udara bulan Januari 2006 s/d
Desember 2012

Pemilihan variabel Input sementara dapat ditentukan sendiri. Sebagai


acuan yaitu berdasarkan pada plot ACF dan PACF. Input yang digunakan sesuai
dengan lag yang keluar dari garis signifikan pada plot ACF dan PACF.

Gambar 4.2 Plot time series suhu udara bulan Januari 2006 s/d
Desember 2012

Gambar 4.3 Plot ACF suhu udara bulan Januari 2006 s/d
Desember 2012

Berdasarkan plot ACF, lag-1 keluar dari garis signifikansi. Oleh karena
itu, variabel input yang digunakan adalah (t-1). Sedangkan pada plot PACF lag

72

yang keluar dari garis signifikan adalah lag-1, lag-2, dan lag-7. Oleh karena itu,
input yang digunakan adalah (t-1), (t-2), dan (t-7). Dalam hal ini penulis
menambahkan satu variabel input lagi yaitu (t-10). Berdasarkan pemaparan diatas,
maka variabel input sementara yang digunakan untuk prediksi suhu udara dengan
84 pasangan data adalah 1 (1 ), 2 (2 ), 7 (3 ), dan 10 (4 ). Hal ini
mengakibatkan data asli berkurang dan menjadi 74 pasangan data input.

Penyusunan model Neural Fuzzy System (NFS) selengkapnya mengikuti


aturan inferensi fuzzy model Sugeno melalui pengendali jaringan syaraf berikut:
a. Pemilihan variabel input-output dan data pelatihan
Calon input, x j , j = 1, 2,..., n , akan dipilih variabel input yang relevan,
yang berhubungan dengan output yi , i = 1, 2,..., N dengan menggunakan metode
eliminasi backward. Variabel-variabel yang tidak diperlukan akan dieliminasi,
dan mempertahankan variabel-variabel yang memberikan korelasi yang cukup
signifikan terhadap variabel output yi. Sebanyak 74 pasangan data yang telah
terpilih dibagi menjadi 56 TRD dan 18 CHD. Pasangan data tersebut masingmasing dapat dilihat pada Tabel 2 dan Tabel 3 dalam Lampiran 2.
Sebelum mencari SSE untuk TRD, terlebih dahulu dilakukan pemilihan
jumlah neuron yang terbaik pada lapisan tersembunyi yang akan digunakan dalam
proses eliminasi. Jumlah neuron yang terbaik sesuai dengan prinsip parsimoni
yaitu jumlah neuron yang mempunyai nilai Mean Square Error (MSE) terkecil
dan turun secara sigbifikan. Setelah dilakukan percobaan dengan perbedaan
jumlah neuron, diperoleh nilai MSE dalam Tabel 4.1.

73

Tabel 4. 1 MSE Training Model 1 dengan 4 Variabel Input


Neuron
1
2
3
4
5
6
7
8
9
10

MSE
5,25E-01
3,88E-01
2,81E-01
2,72E-01
1,72E-01
3,88E-02
3,91E-02
1,68E-02
1,74E-02
6,01E-07

Neuron
11
12
13
14
15
16
17
18
19
20

MSE
8,96E-09
2,19E-10
5,68E-11
8,01E-09
4,20E-07
5,76E-07
7,58E-07
4,72E-13
3,42E-10
2,11E-12

*) model training data terbaik

Berdasarkan Tabel 4.1, jumlah neuron yang terpilih dengan nilai MSE
terkecil adalah 18 neuron. Selanjutnya dilakukan seleksi variabel input yang
relevan dengan cara mengeliminasi variabel-variabel yang tidak diperlukan, dan
mempertahankan variabel-variabel yang memberikan korelasi yang cukup
signifikan terhadap variabel output Yi. Input yang dipilih yaitu yang mempunyai
nilai MSE terkecil.
Proses pembelajaran dengan input 1 , 2 , 3 , 4 dengan target output i dan

menggunakan backpropagation dengan 1 lapisan tersembunyi dan 18 neuron pada

lapisan tersembunyi. Parameter yang digunakan: maksimum epoh = 1000, laju


pembelajaran = 1, dan toleransi eror = 10-6. Proses pembelajaran dilakukan
dengan semua input dan mengeliminasi variabel 1 hingga variabel 4 . SSE yang

diperoleh pada proses pembelajaran yang dihitung terhadap data TRD dan CHD
adalah sebagai berikut.
Tabel 4. 2 SSE Hasil TRD Model 1 dengan 18 Neuron Pada Lapisan Tersembunyi
Eliminasi
x1
x2
x3
x4

Input
x1, x2, x3, x4
x2, x3, x4
x1, x3, x4
x1, x2, x4
x1, x2, x3

MSE
0.3918
1.3748
0.7666
0.5518
2.2017

SSE
28.9921
101.734
56.7286
40.8364
162.926

*) model bagian IF terbaik

74

SSE yang diperoleh pada saat tidak ada variabel yang dieliminasi cukup
kecil. Sehingga variabel input yang berpartisipasi pada bagian anteseden (bagian
IF) adalah variabel 1 , 2 , 3 , 4 dengan target output . Berikut gambar hasil
evaluasi antara target output dengan output jaringan.

Gambar 4. 4 Hasil evaluasi antara output jaringan


dengan target model 1
b. Pengelompokan (clustering) data pelatihan
Banyaknya kelas data pelatihan minimal dibagi menjadi 2 kelas. Pada
bagian ini, data TRD dan CHD akan dibagi menjadi 3 kelas dengan menggunakan
metode pengklasteran FCM diperoleh 3 buah aturan , = 1,2,3. Pasangan input
dan output pada aturan ke-s direpresentasikan sebagai ( , ), = 1,2, ,

dengan adalah jumlah data yang masuk pada kelas ke-. Berdasarkan hasil

clustering diperoleh nilai keanggotaan setiap data pada setiap cluster dan
kecenderungan suatu data masuk ke suatu yang dapat dilihat pada Tabel 4 dan
Tabel 5 Lampiran 2.
Matriks pusat cluster TRD adalah
26,40 26,26 25,88 26,01 26,10
= 25,00 26,07 25,65 25,15 25,21
25,85 25,43 26,42 26,43 26,20

Matriks pusat cluster CHD adalah


25,59 25,97 25,03
= 26,24 25,70 25,26
26,07 25,25 26,46

24,71 24,42
25,74 26,15
26,58 26,49
75

Matriks pusat cluster TRD dan CHD berukuran 3 5. Banyaknya baris sesuai
dengan banyaknya cluster dan banyaknya kolom sesuai dengan banyaknya
variabel input dan output.
c. Pembelajaran jaringan syaraf yang berhubungan dengan bagian
anteseden (bagian IF) pada aturan-aturan inferensi fuzzy
Setiap

vektor

input

pada

TRD

dan

CHD

ditentukan

= (1 , 2 , , ), = 1,2, ,56 untuk TRD dan = 1,2, ,18 untuk CHD

sesuai dengan Persamaan (4.1) berikut.

1; k = s
mik =
0; k s

Jika suatu data masuk ke cluster ke-s , maka nilai keanggotaan data di
cluster tersebut adalah 1 dan bernilai 0 untuk cluster yang lain. Nilai keanggotaan
pasangan TRD dan CHD sebelumnya berupa konversi himpunan fuzzy ke
himpunan tegas yang dapat dilihat pada Tabel 6 dan Tabel 7 Lampiran 2.
Jaringan syaraf tiruan dengan variabel input 1 , 2 , 3 , 4 dan target output

selanjutnya akan dilatih dengan menggunakan jaringan backpropagation

lavenberg marquardt dengan 1 lapisan tersembunyi dan 18 neuron pada lapisan

tersembunyi. Neuron yang digunakan pada proses ini sama dengan neuron pada
proses pemilihan input, karena input sementara dan input setelah proses eliminasi
adalah sama. Parameter yang digunakan adalah maksimum epoh = 1000, laju
pembelajaran = 1, dan toleransi eror = 10-6.
Pembelajaran dilatih dengan menggunakan alogaritma backpropagation
lavenberg marquardt dan menggunakan fungsi aktivasi sigmoid biner sebagai
representasi fungsi keanggotaannya. Hasil pembelajaran berupa suatu nilai
keanggotaan setiap data dalam himpunan fuzzy A pada aturan fuzzy ke-s bagian

76

anteseden ( ( )) yang dapat dilihat pada Tabel 8 dan Tabel 9 untuk TRD dan
CHDnya.

Tabel 8 Nilai Keanggotaan Tiap TRD Model 1 Pada Bagian IF ( )


Data
Ke1
2
3
4
:
:
56

Nilai Keanggotaan

0
-0,0006
0,9999
1,0001
:
:
1

-0,0002
-0,0008
0,0001
0,0001
:
:
0

cluster

1,0001
1,0015
0
-0,0002
:
:
0

3
3
1
1

*Tabel selengkapnya dapat dilihat pada Tabel 8 Lampiran 2

Tabel 9 Nilai Keanggotaan Tiap CHD Model 1 Pada Bagian IF ( )


Data
Ke1
2
3
:
:
18

Nilai Keanggotaan

0,8116
0,177
1,2151
-0,197
0 1921
-0,0257
:
:
:
:
0,0056
-0,0075

0,0111
-0,0181
0,8336
:
:
1,0019

cluster
2
1
3

*Tabel selengkapnya dapat dilihat pada Tabel 9 Lampiran 2

Berdasarkan Tabel 8, nilai keanggotaan maksimum dari pasangan TRD


pertama di aturan inferensi fuzzy A ke-3, maka pasangan TRD pertama masuk
cluster ke-3 dan akan mengalami pembelajaran di aturan inferensi fuzzy A ke-3.
Demikian pula dengan pasangan TRD yang lain. Kecenderungan suatu pasangan
data masuk ke suatu

aturan inferensi ke-s ditentukan oleh nilai

keanggotaan masing-masing pasangan data pada tiap cluster. Jika suatu pasangan
TRD masuk cluster ke-s, maka pasangan TRD tersebut akan masuk ke aturan
inferensi ke-s .

Berdasarkan Tabel 9, nilai keanggotaan dari pasangan CHD pertama di

aturan inferensi fuzzy A ke-2, maka pasangan CHD pertama akan mengalami

77

pembelajaran di aturan inferensi ke-2. Nilai keanggotaan maksimum dari

pasangan CHD pertama adalah di aturan inferensi ke-1, sedangkan

pasangan CHD pertama masuk ke cluster ke-2. Berbeda dengan TRD, pada CHD
hal ini dapat terjadi, sebab CHD hanya digunakan untuk pengecekan jaringan
yang telah dibangun oleh TRD, namun akan lebih baik jika suatu CHD masuk ke
cluster ke-s dan CHD tersebut akan juga masuk ke aturan inferensi ke-s.

d. Pembelajaran jaringan syaraf yang berhubungan dengan bagian


konsekuen (bagian THEN) pada aturan-aturan inferensi fuzzy.
Pada bagian ini, akan dilakukan pembelajaran jaringan syaraf pada bagian

) dan target output , = 1,2,3.


THEN dari dengan input = (1
, 2
, ,

Proses pembelajaran dibagi menjadi 3 proses pembelajaran sesuai dengan jumlah


cluster yang ditentukan, yaitu 1 (1 ), 2 (2 ), dan 3 (3 ).

Proses pembelajaran tiap menggunakan jaringan backpropagation

lavenberg marquardt dengan 1 lapisan tersembunyi, dengan parameter:

maksimum epoh=1000, laju pembelajaran=1, dan toleransi eror=10-6. Fungsi


aktivasi yang digunakan antara lapisan input dengan lapisan tersembunyi adalah
fungsi sigmoid biner dan fungsi identitas untuk lapisan antara lapisan tersembunyi
dan lapisan output. Pembelajaran pada tiap jaringan syaraf dengan 3 aturan

inferensi fuzzy adalah sebagai berikut.


1)

Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output . Format untuk aturan fuzzy pertama (1 ) adalah:


1 : = 1 , 2 , 3 , 4 1 = 1

11 1 11 , 2 12 , 3 13 , 4 14 1 = 1

21 1 11 , 2 12 , 3 13 , 4 14 1 = 1
78

31 1 11 , 2 12 , 3 13 , 4 14 1 = 1

Data yang akan dilatih pada 1 (1 ) dapar dilihat pada Tabel 10 dan Tabel 11
Lampiran 2.
2)

Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output . Format untuk aturan fuzzy kedua ( 2 ) adalah:


2 : = 1 , 2 , 3 , 4 2 = 2

12 1 21 , 2 22 , 3 23 , 4 24 2 = 2
22 1 21 , 2 22 , 3 23 , 4 24 2 = 2

32 1 21 , 2 22 , 3 23 , 4 24 2 = 2

Data yang akan dilatih pada 2 (2 ) dapat dilihat pada Tabel 12 dan Tabel 13
Lampiran 2.

3)

Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output . Format untuk aturan fuzzy kedua ( 3 ) adalah:


3 : = 1 , 2 , 3 , 4 3 = 3 ,

13 1 31 , 2 32 , 3 33 , 4 34 3 = 3
23 1 31 , 2 32 , 3 33 , 4 34 3 = 3
33 1 31 , 2 32 , 3 33 , 4 34 3 = 3

Data yang akan dilatih pada 3 (3 ) dapat dilihat pada Tabel 14 dan Tabel 15
Lampiran 2. Hasil pembelajaran TRD dan CHD pada setiap aturan fuzzy ( )
dapat dilihat pada Tabel 16 dan Tabel 17 Lampiran 2.

79

e. Penentuan output akhir


Nilai akhir dapat diperoleh dengan menggunakan persamaan 4.6

sebagai berikut.

3=1 ( ) ( )
3=1 ( )

, = 1,2, ,74.

Misalkan perhitungan untuk 1 TRD sebagai berikut:


1 =

(26.190)+(25.700,0002)+(28.251,0001)
0+0,0002+1,0001

= 28.25

Hasil akhir pembelajaran terhadap TRD dan CHD dapat dilihat pada Tabel 18
dan Tabel 19 Lampiran 2.
Grafik dari output jaringan dan target output dapat dilihat pada Gambar
4.5 dan Gambar 4.6 berikut.

Gambar 4.5 Plot hasil output jaringan TRD dan target output
pada model 1

Gambar 4. 6 Plot hasil output jaringan TRD dan CHD


dengan target output TRD dan CHD model 1

80

2. Model 2: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy Orde


Nol dengan Input Suhu Udara dan Kelembaban Udara Bulan-bulan
Sebelumnya
Pada model 2 ini, prediksi suhu udara tidak hanya berdasarkan suhu udara
sebelumnya, tetapi prediksi suhu udara ini dipengaruhi oleh faktor lain yaitu
kelembaban udara. Oleh karena itu kelembaban diikutsertakan menjadi input.
Data kelembanan udara yang digunakan yaitu dari bulan Januari 2006 s/d
Desember 2012 dapat dilihat pada Tabel 20 Lampiran 3.
Pemilihan input sementara pada faktor kelembaban udara sama dengan
pemilihan input pada suhu udara yaitu dengan melihat lag yang keluar garis
signifikan pada plot ACF dan PACF.

Gambar 4. 7 Plot kelembaban udara Yogyakarta periode Januari


2006 s/d Desember 2012

Gambar 4. 8 Plot ACF kelembaban udara Yogyakarta periode


Januari 2006 s/d Desember 2012

81

Gambar 4. 9 Plot PACF kelembaban udara Yogyakarta periode


Januari 2006 s/d Desember 2012

Berdasarkan hasil pemilihan input sementara pada model 1 diperoleh 74


pasangan data dengan variable input 1 (1 ), 2 (2 ), 7 (3 ), dan 10 (4 ).

Sedangkan pada plot ACF dan PACF kelembaban udara, lag yang keluar garis
merah adalah lag-1, sehingga variabel inputnya adalah 1 . Berdasarkan variabel

input yang didapat dari plot ACF dan PACF suhu udara dan kelembaban, maka
variabel input sementara yang digunakan dalam pembelajaran adalah 1 (1 ),
2 (2 ), 7 (3 ), 10 (4 ), dan 1 (5 ).

Penyusunan model Neural Fuzzy System (NFS) selengkapnya mengikuti

aturan inferensi fuzzy model Sugeno melalui pengendali jaringan syaraf berikut:
a. Pemilihan variabel input-output dan data pelatihan
Calon input, x j , j = 1, 2,..., n , akan dipilih variabel input yang relevan,
yang berhubungan dengan output yi , i = 1, 2,..., N dengan menggunakan metode
eliminasi backward. Variabel-variabel yang tidak diperlukan akan dieliminasi,
dan mempertahankan variabel-variabel yang memberikan korelasi yang cukup
signfikan terhadap variabel output yi.

82

Sebanyak 74 pasangan data yang telah terpilih dibagi menjadi 56 data


pelatihan (TRD) dan 18 data pengujian (CHD). Pasangan data tersebut masingmasing dapat dilihat pada Tabel 21 dan Tabel 22 dalam Lampiran 3.
Sebelum mencari SSE untuk TRD, terlebih dahulu dilakukan pemilihan
jumlah neuron yang terbaik pada lapisan tersembunyi yang akan digunakan dalam
proses eliminasi. Jumlah neuron yang terbaik sesuai prnsip parsimony yaitu
jumlah neuron yang mempunyai nilai Mean Square Error (MSE) terkecil dan
turun secara drastis. Setelah dilakukan percobaan dengan perbedaan jumlah
neuron, diperoleh nilai MSE dalam Tabel 4.3.
Tabel 4. 3 MSE Training Model 2 dengan 5 Variabel Input
Neuron
1
2
3
4
5
6
7
8
9
10

MSE
4,59E-01
3,41E-01
2,57E-01
2,01E-01
1,43E-01
7,93E-02
3,19E-02
4,35E-02
5,80E-03
9,79E-07

Neuron
MSE
11
8,90E-07
12
7,10E-07
13
9,75E-09
14
2,98E-08
15
1,27E-08
16
1,02E-09
17
7,83E-07
18*
4,66E-12
19
1,64E-10
20
3,48E-07
*) model training terbaik

Berdasarkan Tabel 4.3, jumlah neuron yang terpilih dengan nilai MSE
terkecil adalah 18 neuron. Selanjutnya dilakukan seleksi variabel input yang
relevan dengan cara mengeliminasi variabel-variabel yang tidak diperlukan, dan
mempertahankan variabel-variabel yang memberikan korelasi yang cukup
signifikan terhadap variabel output Yi. Input yang dipilih yaitu yang mempunyai
nilai MSE terkecil.
Proses pembelajaran dengan input 1 , 2 , 3 , 4 , 5 dengan target output

dan menggunakan backpropagation dengan 1 lapisan tersembunyi dan 18 neuron

83

pada lapisan tersembunyi. Parameter yang digunakan: maksimum epoh = 1000,


laju pembelajaran = 1, dan toleransi eror = 10-6. Proses pembelajaran dilakukan
dengan semua input dan mengeliminasi variabel 1 hingga variabel 5 . SSE yang

diperoleh pada proses pembelajaran yang dihitung terhadap data TRD dan CHD
adalah sebagai berikut.
Tabel 4. 4 SSE Hasil TRD Model 2 dengan 18 Neuron Pada
Lapisan Tersembunyi
Eliminasi
x1
x2
x3
x4
x5

Input
x1, x2, x3, x4,x5*
x2, x3, x4
x1, x3, x4
x1, x2, x4
x1, x2, x3
x1,x2,x3,x4

MSE
0.22019
0.73241
0.66231
0.87306
0.57089
0.25656

SSE
16.294
54.198
49.0108
64.6065
42.2456
18.9852

*) model training terbaik

SSE yang diperoleh pada saat tidak ada variabel yang dieliminasi cukup
kecil. Sehingga variabel input yang berpartisipasi pada bagian anteseden (bagian
IF) adalah variabel 1 , 2 , 3 , 4 , 5 dengan target output .

Gambar 4.10 Hasil evaluasi antara output jaringan dengan


target model 2

b. Pengelompokan (clustering) data pelatihan


Banyaknya kelas data pelatihan minimal dibagi menjadi 2 kelas. Pada
bagian ini. data TRD dan CHD akan dibagi menjadi 3 kelas dengan menggunakan
metode pengklasteran FCM diperoleh 3 buah aturan , = 1,2,3. Pasangan input
dan output pada aturan ke-s direpresentasikan sebagai ( , ), = 1,2, ,
84

dengan adalah jumlah data yang masuk pada kelas ke-. Berdasarkan hasil

clustering diperoleh nilai keanggotaan setiap data pada setiap cluster dan
kecenderungan suatu data masuk ke suatu cluster yang dapat dilihat pada Tabel
4.23 dan Tabel 4.24 dalam Lampiran 3.
Matriks pusat cluster TRD adalah
77,97 25,89 25,83 26,09 26,02 25,87
= 72,73 25,52 26,23 25,30 25,27 25,62
83,63 26,07 25,90 26,20 26,20 26,15

Matriks pusat cluster CHD adalah


83,21 26,06 25,60
= 69,05 26,27 25,11
75,92 25,26 25,98

26,16 26,27 26,21


24,00 24,64 25,88
25,07 26,65 23,65

Matriks pusat cluster TRD dan CHD berukuran 3 6. Banyaknya baris sesuai
dengan banyaknya cluster dan banyaknya kolom sesuai dengan banyaknya
variabel input dan output.
c. Pembelajaran jaringan syaraf yang berhubungan dengan bagian
anteseden (bagian IF) pada aturan-aturan inferensi fuzzy
Setiap

vektor

input

pada

TRD

dan

= (1 , 2 , , ), = 1,2, ,56 untuk TRD dan

dengan persamaan (4.1) berikut.

CHD.

ditentukan

= 1,2, ,18 sesuai

1; k = s
mik =
0; k s

Jika suatu data masuk ke cluster ke-s , maka nilai keanggotaan data di
cluster tersebut adalah 1 dan bernilai 0 untuk cluster yang lain. Nilai keanggotaan
pasangan TRD dan CHD sebelumnya berupa konversi himpunan fuzzy ke
himpunan tegas yang dapat dilihat pada Tabel 25 dan Tabel 26.

85

Jaringan syaraf tiruan dengan variabel input 1 , 2 , 3 , 4 , 5 dan target

output selanjutnya akan dilatih dengan menggunakan jaringan backpropagation

lavenberg marquardt dengan 1 lapisan tersembunyi dan 18 neuron pada lapisan

tersembunyi. Neuron yang digunakan pada proses ini sama dengan neuron pada
proses pemilihan input, karena input sementara dan input setelah proses eliminasi
adalah sama. Parameter yang digunakan adalah maksimum epoh = 1000, laju
pembelajaran = 1, dan toleransi eror = 10-6.
Pembelajaran dilatih dengan menggunakan alogaritma backpropagation
lavenberg marquardt dan menggunakan fungsi aktivasi sigmoid sebagai
representasi fungsi keanggotaannya. Hasil pembelajaran berupa suatu nilai
keanggotaan setiap data dalam himpunan fuzzy A pada aturan fuzzy ke-s bagian
anteseden ( ( )) yang dapat dilihat pada Tabel 27 dan Tabel 28 untuk TRD

dan CHDnya.

Tabel 27 Nilai Keanggotaan Tiap TRD Model 2 pada Bagian IF ( )

Nilai Keanggotaan

1
0,000742
-0,00151
1,000804
2
0,000147
-7,4E-05
1,0001
3
0,001532
-0,00319
1,001603
:
:
:
:
:
:
:
:
56
0,999843
-0,0001
-0,00016
*Tabel selengkapnya dapat dilihat pada Tabel 27 Lampiran 3
Data Ke-

Tabel 28 Nilai Keanggotaan Tiap TRD Model 2 pada Bagian IF ( )


Data Ke1
2
3
:
:
56

Nilai Keanggotaan

-0,03427
0,002618
1,031614
-0,06492
0,000793
1,064261
-0,04396
0,011917
1,031844
:
:
:
:
:
:
-0,00964
0,007277
1,002273

*Tabel selengkapnya dapat dilihat pada Tabel 28 Lampiran 3

86

Berdasarkan Tabel 27, nilai keanggotaan maksimum dari pasangan TRD


pertama di aturan inferensi ke-3, maka pasangan TRD pertama masuk

cluster ke-3 dan akan mengalami pembelajaran di aturan fuzzy inferensi A ke-3.
Demikian pula dengan pasangan TRD yang lain. Kecenderungan suatu pasangan
data masuk ke suatu

aturan inferensi ke-s ditentukan oleh nilai

keanggotaan masing-masing pasangan data pada tiap cluster. Jika suatu pasangan
TRD masuk cluster ke-s , maka pasangan TRD tersebut akan masuk ke aturan
inferensi ke-s .

Berdasarkan Tabel 28, nilai keanggotaan maksimum dari pasangan CHD

pertama di aturan inferensi ke-3, maka pasangan CHD pertama akan

mengalami pembelajaran di aturan inferensi ke-3. Demikian pula dengan

pasangan CHD yang lain. Kecenderungan suatu pasangan data masuk ke suatu
aturan inferensi ke-s ditentukan oleh nilai keanggotaan masing-masing
pasangan data pada tiap cluster. Jika suatu pasangan CHD masuk cluster ke-s ,
maka pasangan CHD tersebut akan masuk ke aturan inferensi ke-s .

d. Pembelajaran jaringan syaraf yang berhubungan dengan bagian


konsekuen (bagian THEN) pada aturan-aturan inferensi fuzzy.
Pada bagian ini, akan dilakukan pembelajaran jaringan syaraf pada bagian

) dan target output , = 1,2,3.


THEN dari dengan input = (1
, 2
, ,

Proses pembelajaran dibagi menjadi 3 proses pembelajaran sesuai dengan jumlah


cluster yang ditentukan, yaitu 1 (1 ), 2 (2 ), dan 3 (3 ).

Proses pembelajaran tiap menggunakan jaringan backpropagation

lavenberg marquardt dengan 1 lapisan tersembunyi, dengan parameter:

maksimum epoh=1000, laju pembelajaran=1, dan toleransi eror=10-6. Fungsi


aktivasi yang digunakan antara lapisan input dengan lapisan tersembunyi adalah

87

fungsi sigmoid biner dan fungsi linear untuk lapisan antara lapisan tersembunyi
dan lapisan output. Pembelajaran pada tiap jaringan syaraf dengan 3 aturan
inferensi fuzzy adalah sebagai berikut.

a) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5 dan

target output . Format untuk aturan fuzzy pertama (1 ) adalah:


1 : = 1 , 2 , 3 , 4 1 = 1 ,

11 1 11 , 2 12 , 3 13 , 4 14 , 5 15 1 = 1

21 1 11 , 2 12 , 3 13 , 4 14 , 5 15 1 = 1

31 1 11 , 2 12 , 3 13 , 4 14 , 5 15 1 = 1

Data yang akan dilatih pada 1 (NN1) dapat dilihat pada Tabel 29 dan Tabel 30
Lampiran 3.

b)

Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5 dan

target output . Format untuk aturan fuzzy kedua ( 2 ) adalah:


2 : = 1 , 2 , 3 , 4 2 = 2

12 1 21 , 2 22 , 3 23 , 4 24 , 5 25 2 = 2
22 1 21 , 2 22 , 3 23 , 4 24 , 5 25 2 = 2

32 1 21 , 2 22 , 3 23 , 4 24 , 5 25 2 = 2

Data yang akan dilatih pada 2 (NN2) dapat dilihat pada Tabel 31 dan Tabel 32
Lampiran 3.
c)

Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5 dan

target output . Format untuk aturan fuzzy kedua ( 3 ) adalah:


88

3 : = 1 , 2 , 3 , 4 3 = 3

13 1 31 , 2 32 , 3 33 , 4 34 , 5 35 3 = 3
23 1 31 , 2 32 , 3 33 , 4 34 , 5 35 3 = 3

33 1 31 , 2 32 , 3 33 , 4 34 , 5 35 3 = 3

Data yang akan dilatih pada 3 (NN3) dapat dilihat pada Tabel 33 dan

Tabel 34 Lampiran 3. Sedangkan untuk hasil pembelajaran TRD dan CHD pada
setiap aturan fuzzy ( ) dapat dilihat pada Tabel 35 dan Tabel 36 Lampian 3.
e. Penentuan output akhir

Nilai akhir dapat diperoleh dengan menggunakan persamaan 4.6

sebagai berikut.

3=1 ( ) ( )
3=1 ( )

, = 1,2, ,74.

Misalkan perhitungan untuk 1 TRD sebagai berikut


1 =

(26,36 0,000742) + (24,52 0,00151) + (27,05 1,000804)


0,000742 + 0,00151 + 1,000804
= 27,05

Hasil akhir pembelajaran terhadap TRD dan CHD dapat dilihat pada Tabel 37 dan
Tabel 38 Lampiran 3.
Kesesuaian dari output jaringan dan target output dapat dilihat pada
Gambar 4.11 dan Gambar 4.12 berikut.

Gambar 4.11 Plot hasil output jaringan TRD dan target output
pada model 2

89

Gambar 4.12 Plot hasil output jaringan TRD dan CHD


dengan target output TRD dan CHD model 2

3. Model 3: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy Orde


Satu dengan Input Suhu Udara Bulan-bulan Sebelumnya
Model neuro fuzzy orde satu hampir sama dengan model neuro fuzzy orde
nol. Penentuan output akhir model neuro fuzzy orde nol membutuhkan 5 langkah
pengerjaan. Sedangkan pada model neuro fuzzy orde satu membutuhkan 6 langkah
pengerjaan, karena setelah proses pembelajaran jaringan syaraf yang berhubungan
dengan konsekuen (bagian THEN), kemudan harus melalui tahap penyederhanaan
bagian konsekuen (bagian THEN) tersebut dengan menggunakan metode
backward. Oleh karena itu langkah 1-4 dalam model 3 ini sama seperti model 1.
Data untuk suhu udara yang digunakan untuk prediksi dapat dilihat pada
Tabel 1 dalam Lampiran 2. Penentuan input sementara dapat dilihat dari plot ACF
dan PACF pada Gambar 4.2 dan Gambar 4.3. Input yang digunakan sesuai dengan
input yang digunakan pada model 1. Penyusunan model Neural Fuzzy System
(NFS) selengkapnya mengikuti aturan inferensi fuzzy model Sugeno melalui
pengendali jaringan syaraf berikut:
a. Pemilihan variabel input-output dan data pelatihan
Calon input, x j , j = 1, 2,..., n , akan dipilih variabel input yang relevan
yang berhubungan dengan output yi , i = 1, 2,..., N dengan menggunakan metode
eliminasi backward. Variabel-variabel yang tidak diperlukan akan dieliminasi,

90

dan menggunakan variabel-variabel yang memberikan korelasi yang cukup


signifikan terhadap variabel output yi. Sebanyak 74 pasangan data yang telah
terpilih dibagi menjadi 56 data pelatihan (TRD) dan 18 data pengujian (CHD).
Pasangan data tersebut masing-masing dapat dilihat pada Tabel 2 dan Tabel 3
dalam Lampiran 2.
Sebelum mencari MSE untuk TRD, terlebih dahulu dilakukan pemilihan
jumlah neuron yang terbaik pada lapisan tersembunyi yang akan digunakan dalam
proses eliminasi. Jumlah neuron yang terbaik sesuai prinsip parsimoni yaitu
jumlah neuron yang mempunyai nilai Mean Square Error (MSE) terkecil dan
turun secara signifikan. Setelah dilakukan percobaan dengan perbedaan jumlah
neuron, diperoleh nilai MSE dalam Tabel 4.1.
Berdasarkan Tabel 4.1, jumlah neuron yang terpilih dengan nilai MSE
terkecil adalah 18 neuron. Selanjutnya dilakukan seleksi variabel input yang
relevan dengan cara mengeliminasi variabel-variabel yang tidak diperlukan, dan
mempertahankan variabel-variabel yang memberikan korelasi yang cukup
signifikan terhadap variabel output Yi. Input yang dipilih yaitu yang mempunyai
nilai MSE yang terkecil.
Proses pembelajaran dengan input 1 , 2 , 3 , 4 dengan target output dan

menggunakan backpropagation dengan 1 lapisan tersembunyi dan 18 neuron pada

lapisan tersembunyi. Parameter yang digunakan: maksimum epoh = 1000, laju


pembelajaran = 1, dan toleransi eror = 10-6. Proses pembelajaran dilakukan
dengan semua input dan mengeliminasi variabel 1 hingga variabel 4 . SSE yang

diperoleh pada proses pembelajaran yang dihitung terhadap data TRD dan CHD
adalah seperti pada Tabel 4.2.

91

MSE yang diperoleh pada saat tidak ada variabel yang dieliminasi cukup
kecil. Sehingga variabel input yang berpartisipasi pada bagian anteseden (bagian
IF) adalah variabel 1 , 2 , 3 , 4 dengan target output .

b. Pengelompokan (clustering) data pelatihan

Banyaknya kelas data pelatihan minimal dibagi menjadi 2 kelas. Pada


bagian ini. data TRD dan CHD akan dibagi menjadi 3 kelas dengan menggunakan
metode pengklasteran FCM diperoleh 3 buah aturan , = 1,2,3. Pasangan input
dan output pada aturan ke-s direpresentasikan sebagai ( , ), = 1,2, ,

dengan adalah jumlah data yang masuk pada kelas ke-. Berdasarkan hasil

clustering diperoleh nilai keanggotaan setiap data pada setiap cluster dan
kecenderungan suatu data masuk ke suatu cluster yang dapat dilihat pada Tabel 4
dan Tabel 5 Lampiran 2.
Matriks pusat cluster TRD adalah
26,40 26,26 25,88 26,01 26,10
= 25,00 26,07 25,65 25,15 25,21
25,85 25,43 26,42 26,43 26,20

Matriks pusat cluster CHD adalah


25,59 25,97 25,03
= 26,24 25,70 25,26
26,07 25,25 26,46

24,71 24,42
25,74 26,15
26,58 26,49

Matriks pusat cluster TRD dan CHD berukuran 3 5. Banyaknya baris sesuai
dengan banyaknya cluster dan banyaknya kolom sesuai dengan banyaknya
variabel input dan output.

92

c. Pembelajaran jaringan syaraf yang berhubungan dengan bagian


anteseden (bagian IF) pada aturan-aturan inferensi fuzzy
Setiap

vektor

input

pada

TRD

dan

CHD

ditentukan

= (1 , 2 , , ), = 1,2, ,56 untuk TRD dan = 1,2, ,18 untuk CHD

sesuai dengan Persamaan (4.1) berikut.

1; k = s
mik =
0; k s

Jika suatu data masuk ke cluster ke-s , maka nilai keanggotaan data di
cluster tersebut adalah 1 dan bernilai 0 untuk cluster yang lain. Nilai keanggotaan
pasangan TRD dan CHD sebelumnya berupa himpunan fuzzy konversi

ke

himpunan tegas yang dapat dilihat pada Tabel 6 dan Tabel 7.


Jaringan syaraf tiruan dengan variabel input 1 , 2 , 3 , 4 dan target output

selanjutnya akan dilatih dengan menggunakan jaringan backpropagation

lavenberg marquardt dengan 1 lapisan tersembunyi dan 18 neuron pada lapisan

tersembunyi. Neuron yang digunakan pada proses ini sama dengan neuron pada
proses pemilihan input, karena input sementara dan input setelah proses eliminasi
adalah sama. Parameter yang digunakan adalah maksimum epoh = 1000, laju
pembelajaran = 1, dan toleransi eror = 10-6.
Pembelajaran dilatih dengan menggunakan alogaritma backpropagation
lavenberg marquardt dan menggunakan fungsi aktivasi sigmoid sebagai
representasi fungsi keanggotaannya. Hasil pembelajaran berupa suatu nilai
keanggotaan setiap data dalam himpunan fuzzy A pada aturan fuzzy ke-s bagian
anteseden ( ( )) yang dapat dilihat pada Tabel 8 untuk TRD dan Tabel 9

untuk CHDnya.

93

Berdasarkan Tabel 8, nilai keanggotaan maksimum dari pasangan TRD


pertama di aturan inferensi ke-3, maka pasangan TRD pertama masuk

cluster ke-3 dan akan mengalami pembelajaran di aturan fuzzy inferensi A ke-3.

Demikian pula dengan pasangan TRD yang lain. Kecenderungan suatu pasangan
data masuk ke suatu

aturan inferensi ke-s ditentukan oleh nilai

keanggotaan masing-masing pasangan data pada tiap cluster. Jika suatu pasangan
TRD masuk cluster ke-s , maka pasangan TRD tersebut akan masuk ke aturan
inferensi ke-s .

Berdasarkan Tabel 9, nilai keanggotaan dari pasangan CHD pertama di

aturan inferensi ke-2, maka pasangan CHD pertama akan mengalami

pembelajaran di aturan inferensi ke-2. Nilai keanggotaan maksimum


dari pasangan CHD pertama adalah di aturan inferensi ke-1, sedangkan

pasangan CHD pertama masuk ke cluster ke-2. Berbeda dengan TRD, pada CHD
hal ini dapat terjadi, sebab CHD hanya digunakan untuk pengecekan jaringanyang
telah dibangun oleh TRD, namun akan lebih baik jika suatu CHD masuk ke
cluste ke-s dan CHD tersebut akan juga masuk ke aturan inferensi ke-s.

d. Pembelajaran jaringan syaraf yang berhubungan dengan bagian


konsekuen (bagian THEN) pada aturan-aturan inferensi fuzzy.
Pada bagian ini, akan dilakukan pembelajaran jaringan syaraf pada bagian

) dan target output , = 1,2,3.


THEN dari dengan input = (1
, 2
, ,

Proses pembelajaran dibagi menjadi 3 proses pembelajaran sesuai dengan jumlah


cluster yang ditentukan, yaitu 1 (1 ), 2 (2 ), dan 3 (3 ).

Proses pembelajaran tiap menggunakan jaringan backpropagation

lavenberg marquardt dengan 1 lapisan tersembunyi, dengan parameter:

maksimum epoh=1000, laju pembelajaran=1, dan toleransi eror=10-6. Fungsi

94

aktivasi yang digunakan antara lapisan input dengan lapisan tersembunyi adalah
fungsi sigmoid dan fungsi linear untuk lapisan antara lapisan tersembunyi dan
lapisan output. Pembelajaran pada tiap jaringan syaraf dengan 3 aturan

inferensi fuzzy adalah sebagai berikut.


1) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output . Format untuk aturan fuzzy pertama (1 ) adalah:


1 : = 1 , 2 , 3 , 4 1 = 1 ,

11 1 11 , 2 12 , 3 13 , 4 14 1 = 1

21 1 11 , 2 12 , 3 13 , 4 14 1 = 1

31 1 11 , 2 12 , 3 13 , 4 14 1 = 1

Data TRD dan CHD yang akan dilatih pada 1 (1 ) dapat dilihat pada Tabel 10

dan Tabel 11.

2) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output . Format untuk aturan fuzzy kedua ( 2 ) adalah:


2 : = 1 , 2 , 3 , 4 2 = 2

12 1 21 , 2 22 , 3 23 , 4 24 2 = 2
22 1 21 , 2 22 , 3 23 , 4 24 2 = 2

32 1 21 , 2 22 , 3 23 , 4 24 2 = 2

Data TRD dan CH yang akan dilatih pada 2 (2 ) dapat dilihat pada Tabel 12

dan Tabel 4.13.

95

3)

Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output . Format untuk aturan fuzzy kedua ( 3 ) adalah:


3 : = 1 , 2 , 3 , 4 3 = 3 ,

13 1 31 , 2 32 , 3 33 , 4 34 3 = 3
23 1 31 , 2 32 , 3 33 , 4 34 3 = 3

33 1 31 , 2 32 , 3 33 , 4 34 3 = 3

Data TRD dan CHD yang akan dilatih pada 3 (3 ) dapat dilihat pada Tabel 14

dan Tabel 15.

e. Penyederhanaan bagian konsekuen (bagian THEN) menggunakan


metode backward.
Pada bagian ini, akan dilakukan penyederhanaan bagian konsekuen.
Pembelajaran jaringan syaraf untuk penyederhanaan pada bagian THEN dari

menggunakan metode backward untuk jaringan backpropagation lavenberg


marquardt dengan 1 lapisan tersembunyi. Parameter yang digunakan pada
jaringan ini adalah: maksimum epoh=1000, laju pembelajaran=1, dan toleransi
error = 10-6. Fungsi aktivasi yang digunakan antara lapisan input dengan lapisan
tersembunyi adalah fungsi sigmoid biner dan fungsi linear untuk lapisan antara
lapisan tersembunyi dan lapisan output.
Selanjutnya, parameter konsekuen dicari dengan menggunakan metode
LSE. Parameter konsekuen yang diperoleh akan digunakan untuk memperbaiki
bagian anteseden pada pembelajaran selanjutnya. Pembelajaran pada tiap jaringan
syaraf dengan 3 aturan inferensi fuzzy adalah sebagai berikut.

96

1) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output dan diawali dengan pencarian jumlah neuron pada lapisan

tersembunyi berdasarkan nilai MSE. Nilai MSE diperoleh dari TRD proses
percobaan pembelajaran jaringan syaraf. Hasil percobaan dapat yang diperoleh
dapat dilihat pada Tabel 4.5.
Tabel 4. 5 MSE Hasil Training Model 3 pada (NN1)

NEURON
1
2
3
4
5

MSE
3,93E-01
3,84E-01
5,56E-02
4,36E-02
2,20E-03

NEURON
6*
7
8
9
10

MSE
NEURON
MSE
3,54E-10
11
2,66E-10
1,05E-11
12
8,89E-11
4,78E-10
13
1,88E-07
7,44E-07
14
5,22E-12
1,81E-08
15
1,01E-11
*) model training terbaik

Berdasarkan Tabel 4.5, nilai MSE terkecil diperoleh pada saat jumlah
neuron 6. Oleh karena itu, jaringan 1 yang akan dibangun menggunakan 6
neuron pada lapisan tersembunyi.

Proses seleksi variabel input pada pembelajaran NN1 dilatih menggunakan


jaringan backpropagation lavenberg marquardt dengan 1 lapisan tersembunyi
dengan 6 neuron pada lapisan tersembunyi. Parameter yang digunakan pada
jaringan ini adalah: maksimum epoh = 1000, laju pembelajaran = 1, dan toleransi
error = 10-6.
Eliminasi backward dilakukan untuk semua variabel input. Proses
pembelajaran jaringan mendapatkan nilai MSE berdasarkan persamaan 4.5 seperti
yang dapat dilihat pada Tabel 4.6.

97

Tabel 4. 6 SSE Hasil TRD dengan 6 Neuron Pada Lapisan


Tersembunyi R NN1 Model 3
Eliminasi
Input
MSE
SSE
x1, x2, x3, x4
0.089055
6.5901
x1
x2, x3, x4
0.129316
9.5694
x2
x1, x3, x4
0.373265
27.6216
x3
x1, x2, x4
0.072607
5.3729
x4
x1, x2, x3
0.077616
5.7436
x3,x4
x1,x2
9.202235
680.9654
*) model training terbaik

Berdasarkan Tabel 4.6, nilai SSE yang diperoleh saat tidak ada variabel
yang dieliminasi cukup kecil, maka input yang digunakan dalam pembelajaran
adalah 1 , 2 , 3 , 4 . Pembelajaran 1 dengan input 1 , 2 , 3 , 4 dilatih kembali

menggunakan jaringan backpropagation lavenberg marquardt dengan 6 neuron

pada 1 lapisan tersembunyi. Proses pembelajaran jaringan dilakukan dengan input


1 , 2 , 3 , 4 dan target output untuk menentukan konsekuen parameter. Hasil
penyederhanaan bagian konsekuen pada pembelajaran TRD dan CHD pada 1

dapat dilihat pada Tabel 39 dan Tabel 40 Lampiran 4.


Format aturan untuk aturan pertama 1 adalah

1 : 1 11 , 2 12 , 3 13 , 4 14 1 = 1 (1 , 2 , 3 , 4 )

dengan,

1 (1 , 2 , 3 , 4 ) = 0,50791 + 0,21472 + 0,09573 +0,17014 + 0,0007

2) Pembelajaran pada

. Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output dan diawali dengan pencarian jumlah neuron pada lapisan

tersembunyi berdasarkan nilai MSE. Nilai MSE diperoleh dari TRD proses
percobaan pembelajaran jaringan syaraf. Hasil percobaan dapat yang diperoleh
dapat dilihat pada Tabel 4.7.

98

Tabel 4. 7 MSE Hasil Training Model 3 pada (NN2)


NEURON
MSE
NEURON
MSE
NEURON
MSE
1
5,01E-01
6
7,99E-07
11
3,49E-11
2
2,98E-02
7
1,27E-10
12
5,46E-09
3
5,28E-08
8
1,71E-12
13
1,38E-08
4
2,92E-07
9
3,55E-08
14
3,56E-08
5
3,78E-07
10
1,32E-11
15
1,68E-09
*) model training terbaik

Berdasarkan Tabel 4.7, nilai MSE terkecil diperoleh pada saat jumlah
neuron 3. Oleh karena itu, jaringan 1 yang akan dibangun menggunakan 3
neuron pada lapisan tersembunyi

Proses seleksi variabel input pada pembelajaran NN2 dilatih menggunakan


jaringan backpropagation lavenberg marquardt dengan 1 lapisan tersembunyi
dengan 3 neuron pada lapisan tersembunyi. Parameter yang digunakan pada
jaringan ini adalah: maksimum epoh = 1000, laju pembelajaran = 1, dan toleransi
error = 10-6.
Eliminasi backward dilakukan untuk semua variabel input. Proses
pembelajaran jaringan mendapatkan nilai SSE berdasarkan persamaan (4.5)
seperti yang dapat dilihat pada Tabel 4.8.
Tabel 4.8 SSE Hasil TRD dengan 3 Neuron Pada Lapisan
Tersembunyi (NN2) Model 3
Eliminasi
Input
MSE
SSE
x1, x2, x3, x4
0.199451
14.7594
x1
x2, x3, x4
0.096759
7.1602
x2
x1, x3, x4
0.204014
15.097
x3
x1, x2, x4
0.256626
18.9903
x4
x1, x2, x3
0.307051
22.7218

Berdasarkan Tabel 4.8, nilai SSE yang diperoleh saat variabel 1

dieliminasi cukup kecil (lebih kecil dari pada nilai MSE ketika semua variabel
digunakan) maka variabel 1 dihilangkan. Pembelajaran 2 dengan input

2 , 3 , 4 dilatih kembali

menggunakan jaringan backpropagation lavenberg

marquardt dengan 3 neuron pada 1 lapisan tersembunyi. Proses pembelajaran

99

jaringan dilakukan dengan 2 , 3 , 4 dengan target output untuk menentukan


konsekuen

parameter.

Hasil

penyederhanaan

bagian

konsekuen

pada

pembelajaran TRD dan CHD pada 2 dapat dilihat pada Tabel 41 dan Tabel

42 Lampiran 4.

Format aturan untuk aturan pertama 2 adalah

2 : 2 21 , 3 23 4 24 2 = 2 (2 , 3 , 4 )

dengan, 2 (2 , 3 , 4 ) = 0,73922 0,04813 + 0,30834 + 0,0052


3) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 dan

target output dan diawali dengan pencarian jumlah neuron pada lapisan

tersembunyi berdasarkan nilai MSE. Nilai MSE diperoleh dari TRD proses
percobaan pembelajaran jaringan syaraf. Hasil percobaan dapat yang diperoleh
dapat dilihat pada Tabel 4.9.

NEURON
1
2
3
4
5

Tabel 4. 9 MSE Hasil Training Model 3 pada (NN3)


MSE
4,57E-01
1,69E-01
4,33E-02
9,10E-11
2,83E-11

NEURON
6
7
8
9
10

MSE
NEURON
MSE
5,60E-09
11
8,30E-12
9,68E-08
12
1,47E-07
4,77E-11
13
1,45E-10
9,28E-09
14
1,30E-12
2,82E-07
15
3,29E-09
*) model training terbaik

Berdasarkan Tabel 4.9, nilai MSE terkecil diperoleh pada saat jumlah
neuron 4. Oleh karena itu, jaringan 1 yang akan dibangun menggunakan 4
neuron pada lapisan tersembunyi. Proses seleksi variabel input pada pembelajaran

NN3 dilatih menggunakan jaringan backpropagation lavenberg marquardt dengan


1 lapisan tersembunyi dengan 4 neuron pada lapisan tersembunyinya. Parameter
yang digunakan pada jaringan ini adalah: maksimum epoh = 1000, laju
pembelajaran = 1, dan toleransi error = 10-6.

100

Eliminasi backward dilakukan untuk semua variabel input. Proses


pembelajaran jaringan mendapatkan nilai SSE berdasarkan persamaan 4.5 seperti
yang dapat dilihat pada Tabel 4.10.
Tabel 4. 10 MSE Hasil TRD dengan 4 Neuron Pada
Lapisan Tersembunyi R NN3 Model 3
Eliminasi
Input
MSE
SSE
x1, x2, x3, x4* 0.095742
7.0849
x1
x2, x3, x4
0.129653
9.5943
x2
x1, x3, x4
0.579655
42.8945
x3
x1, x2, x4
0.219599
16.2503
x4
x1, x2, x3
0.191864
14.1979

Berdasarkan Tabel 4.10, nilai SSE yang diperoleh saat tidak ada variabel
yang dieliminasi cukup kecil, maka model tersebut yang digunakan untuk
pembelajaran. Pembelajaran 3 dengan input 1 , 2 , 3 , 4 dilatih kembali

menggunakan jaringan backpropagation lavenberg marquardt dengan 4 neuron


pada 1 lapisan tersembunyi. Proses pembelajaran jaringan dilakukan dengan
1 , 2 , 3 , 4 dengan target output untuk menentukan konsekuen parameter.

Hasil penyederhanaan konsekuen pada pembelajaran TRD dan CHD pada 3

dapat dilihat pada Tabel 43 dan Tabel 44 Lampiran 4.


Format aturan untuk aturan pertama 3 adalah

3 : 1 31 , 2 32 , 3 33 4 34 3 = 3 (1 , 2 , 3 , 4 )
dengan,

3 (1 , 2 , 3 , 4 ) = 0,2441 0,05112 + 0,49663 + 0,33524 + 0,0029Hasil

pembelajaran TRD dan CHD pada setiap aturan fuzzy ( ) dapat dilihat pada

Tabel 45 dan Tabel 46 Lampiran 4.


f. Penentuan output akhir

Nilai akhir dapat diperoleh dengan menggunakan Persamaan 4.6.


=

3=1 ( ) ( )
3=1 ( )

101

, = 1,2, ,74.

Misalkan perhitungan untuk 1 TRD sebagai berikut:


1 =

( 25,80 0)+( 24,97 0,0002)+( 26,59 1,0001)


0+0,0002+1,0001

= 26,59

Hasil akhir pembelajaran terhadap TRD dan CHD dapat dilihat pada Tabel 47 dan
Tabel 48 dalam Lampiran 4.
Kesesuaian dari output jaringan dan target output dapat dilihat pada
Gambar 4.13 dan Gambar 4.14 berikut.

Gambar 4.13 Plot hasil output jaringan TRD dan target output
TRD NFS orde satu model 3

Gambar 4.14 Plot hasil output jaringan TRD dan CHD dan target
output TRD dan CHD NFS orde satu model 3

4. Model 4: Prediksi Suhu Udara Menggunakan Model Neuro Fuzzy Orde


Satu dengan Input Suhu Udara dan Kelembaban Udara Bulan-bulan
Sebelumnya
Model neuro fuzzy orde satu hampir sama dengan model neuro fuzzy orde
nol. Dalam menentukan output akhir, model neuro fuzzy orde nol membutuhkan 5
langkah pengerjaan. Sedangkan pada model neuro fuzzy orde satu membutuhkan 6
langkah pengerjaan, karena setelah proses pembelajaran jaringan syaraf yang

102

berhubungan dengan konsekuen (bagian THEN), kemudian harus melalui tahap


penyederhanaan bagian konsekuen (bagian THEN) tersebut dengan menggunakan
metode backward. Oleh karena itu langkah 1-4 dalam model 4 ini sama seperti
model 2. Data suhu dan kelembanan udara yang digunakan untuk pembelajaran
dapat dilihat pada Tabel 1 dalam Lampiran 2 dan Tabel 20 dalam Lampiran 3.
Pemilihan input sementara pada model 4 sama dengan pemilihan input
pada model 2 yaitu dengan melihat lag yang keluar garis signifikan pada plot ACF
dan PACF. Dari hasil pemilihan input sementara pada model 2 diperoleh variabel
input sementara yang digunakan dalam pembelajaran adalah 1 (1 ), 2 (2 ),

7 (3 ), 10 (4 ), dan 1 (5 ).

Penyusunan model Neural Fuzzy System (NFS) selengkapnya mengikuti

aturan inferensi fuzzy model Sugeno melalui pengendali jaringan syaraf berikut:
a. Pemilihan variabel input-output dan data pelatihan
Calon input, x j , j = 1, 2,..., n , akan dipilih variabel input yang relevan,
yang berhubungan dengan output yi , i = 1, 2,..., N dengan menggunakan metode
eliminasi backward. Variabel-variabel yang tidak diperlukan akan dieliminasi,
dan mempertahankan variabel-variabel yang memberikan korelasi yang cukup
signifikan terhadap variabel output yi. Sebanyak 74 pasangan data yang telah
terpilih dibagi menjadi 56 data pelatihan (TRD) dan 18 data pengujian (CHD).
Pasangan data tersebut masing-masing dapat dilihat pada Tabel 21 dan Tabel 22
dalam Lampiran 3.
Sebelum mencari SSE untuk TRD, terlebih dahulu dilakukan pemilihan
jumlah neuron yang terbaik pada lapisan tersembunyi yang akan digunakan dalam
proses eliminasi. Jumlah

neuron yang terbaik yaitu jumlah neuron yang

103

mempunyai nilai Mean Square Error (MSE) terkecil. Setelah dilakukan


percobaan dengan perbedaan jumlah neuron, diperoleh nilai MSE dalam Tabel
4.3.
Berdasarkan Tabel 4.3, jumlah neuron yang terpilih dengan nilai MSE
terkecil adalah 18 neuron. Selanjutnya dilakukan seleksi variabel input yang
relevan dengan menggunakan fungsi biaya SSE dengan cara mengeliminasi
variabel-variabel yang tidak diperlukan, dan mempertahankan variabel-variabel
yang memberikan korelasi yang cukup signifikan terhadap variabel output Yi.
Proses pembelajaran dengan input 1 , 2 , 3 , 4 , 5 dengan target output

dan menggunakan backpropagation dengan 1 lapisan tersembunyi dan 18 neuron


pada lapisan tersembunyi. Parameter yang digunakan: maksimum epoh = 1000,
laju pembelajaran = 1, dan toleransi eror = 10-6. Proses pembelajaran dilakukan
dengan semua input dan mengeliminasi variabel 1 hingga variabel 5 . SSE yang

diperoleh pada proses pembelajaran yang dihitung terhadap data TRD dan CHD
dapat dilihat pada Tabel 4.4.
MSE yang diperoleh pada saat tidak ada variabel yang dieliminasi cukup
kecil. Sehingga variabel input yang berpartisipasi pada bagian anteseden (bagian
IF) adalah variabel 1 , 2 , 3 , 4 , 5 dengan target output .
b. Pengelompokan (clustering) data pelatihan

Banyaknya kelas data pelatihan minimal dibagi menjadi 2 kelas. Pada


bagian ini. data TRD dan CHD akan dibagi menjadi 3 kelas dengan menggunakan
metode pengklasteran FCM diperoleh 3 buah aturan , = 1,2,3. Pasangan input
dan output pada aturan ke-s direpresentasikan sebagai ( , ), = 1,2, ,

dengan adalah jumlah data yang masuk pada kelas ke-. Berdasarkan hasil

clustering diperoleh nilai keanggotaan setiap data pada setiap cluster dan

104

kecenderungan suatu data masuk ke suatu cluster yang dapat dilihat pada Tabel 23
dan Tabel 24 dalam Lampiran 3.
Matriks pusat cluster TRD adalah
77,97 25,89 25,83 26,09 26,02 25,87
= 72,73 25,52 26,23 25,30 25,27 25,62
83,63 26,07 25,90 26,20 26,20 26,15

Matriks pusat cluster CHD adalah


83,21 26,06 25,60
= 69,05 26,27 25,11
75,92 25,26 25,98

26,16 26,27 26,21


24,00 24,64 25,88
25,07 26,65 23,65

Matriks pusat cluster TRD dan CHD berukuran 3 6. Banyaknya baris sesuai
dengan banyaknya cluster dan banyaknya kolom sesuai dengan banyaknya
variabel input dan output.
c. Pembelajaran jaringan syaraf yang berhubungan dengan bagian
anteseden (bagian IF) pada aturan-aturan inferensi fuzzy
Setiap

vektor

input

pada

TRD

dan

= (1 , 2 , , ), = 1,2, ,56 untuk TRD dan

dengan persamaan (4.1) berikut.

CHD.

ditentukan

= 1,2, ,18 sesuai

1; k = s
mik =
0; k s

Jika suatu data masuk ke cluster ke-s , maka nilai keanggotaan data di
cluster tersebut adalah 1 dan bernilai 0 untuk cluster yang lain. Nilai keanggotaan
pasangan TRD dan CHD sebelumnya berupa konversi himpunan fuzzy ke
himpunan tegas yang dapat dilihat pada Tabel 25 dan Tabel 26 dalam Lampiran 3.
Jaringan syaraf tiruan dengan variabel input 1 , 2 , 3 , 4 , 5 dan target output

selanjutnya akan dilatih dengan menggunakan jaringan backpropagation


lavenberg marquardt dengan 1 lapisan tersembunyi dan 18 neuron pada lapisan

105

tersembunyi. Neuron yang digunakan pada proses ini sama dengan neuron pada
proses pemilihan input, karena input sementara dan input setelah proses eliminasi
adalah sama. Parameter yang digunakan adalah maksimum epoh = 1000, laju
pembelajaran = 1, dan toleransi eror = 10-6.
Pembelajaran dilatih dengan menggunakan alogaritma backpropagation
lavenberg marquardt dan menggunakan fungsi aktivasi sigmoid sebagai
representasi fungsi keanggotaannya. Hasil pembelajaran berupa suatu nilai
keanggotaan setiap data dalam himpunan fuzzy A pada aturan fuzzy ke-s bagian
anteseden ( ( )) yang dapat dilihat pada Tabel 27 dan Tabel 28 dalam

Lampiran 3 untuk TRD dan CHDnya.

Berdasarkan Tabel 27, nilai keanggotaan maksimum dari pasangan TRD


pertama di aturan inferensi ke-3, maka pasangan TRD pertama masuk

cluster ke-3 dan akan mengalami pembelajaran di aturan fuzzy inferensi A ke-3.
Demikian pula dengan pasangan TRD yang lain. Kecenderungan suatu pasangan
data masuk ke suatu

aturan inferensi ke-s ditentukan oleh nilai

keanggotaan masing-masing pasangan data pada tiap cluster. Jika suatu pasangan
TRD masuk cluster ke-s , maka pasangan TRD tersebut akan masuk ke aturan
inferensi ke-s .

Berdasarkan Tabel 28, nilai keanggotaan maksimum dari pasangan CHD

pertama di aturan inferensi ke-3, maka pasangan CHD pertama akan


mengalami pembelajaran di aturan

inferensi ke-3. Demikian pula

dengan pasangan CHD yang lain. Kecenderungan suatu pasangan data masuk ke
suatu aturan inferensi ke-s ditentukan oleh nilai keanggotaan masing-

masing pasangan data pada tiap cluster. Jika suatu pasangan CHD masuk cluster

106

ke-s , maka pasangan CHD tersebut akan masuk ke aturan inferensi ke-

s.

d. Pembelajaran jaringan syaraf yang berhubungan dengan bagian


konsekuen (bagian THEN) pada aturan-aturan inferensi fuzzy.
Pada bagian ini, akan dilakukan pembelajaran jaringan syaraf pada bagian

) dan target output , = 1,2,3.


THEN dari dengan input = (1
, 2
, ,

Proses pembelajaran dibagi menjadi 3 proses pembelajaran sesuai dengan jumlah


cluster yang ditentukan, yaitu 1 (1 ), 2 (2 ), dan 3 (3 ).

Proses pembelajaran tiap menggunakan jaringan backpropagation

lavenberg marquardt dengan 1 lapisan tersembunyi, dengan parameter:

maksimum epoh=1000, laju pembelajaran=1, dan toleransi eror=10-6. Fungsi


aktivasi yang digunakan antara lapisan input dengan lapisan tersembunyi adalah
fungsi sigmoid biner dan fungsi identitas untuk lapisan antara lapisan tersembunyi
dan lapisan output. Pembelajaran pada tiap jaringan syaraf dengan 3 aturan

inferensi fuzzy adalah sebagai berikut.


1) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5 dan target

output . Format untuk aturan fuzzy pertama (1 ) adalah:

1 : = 1 , 2 , 3 , 4 , 5 1 = 1 (1 , 2 , 3 , 4 , 5 )

11 1 11 , 2 12 , 3 13 , 4 14 , 5 15 1 =
1 (1 , 2 , 3 , 4 , 5 )
21 1 11 , 2 12 , 3 13 , 4 14 , 5 15 2 =
1 (1 , 2 , 3 , 4 , 5 )

31 1 11 , 2 12 , 3 13 , 4 14 , 5 15 3 =

1 (1 , 2 , 3 , 4 , 5 )

107

Data TRD dan CHD yang akan dilatih pada 1 (NN1) dapat dilihat pada Tabel 29
dan Tabel 30 dalam Lampiran 3.
2) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5 dan target

output . Format untuk aturan fuzzy kedua ( 2 ) adalah:

2 : = 1 , 2 , 3 , 4 , 5 2 = 2 (1 , 2 , 3 , 4 , 5 )

12 1 21 , 2 22 , 3 23 , 4 24 , 5 25 2 =
2 (1 , 2 , 3 , 4 , 5 )

22 1 21 , 2 22 , 3 23 , 4 24 , 5 25 2 =
2 (1 , 2 , 3 , 4 , 5 )

32 1 21 , 2 22 , 3 23 , 4 24 , 5 25 2 =
2 (1 , 2 , 3 , 4 , 5 )

Data TRD dan CHD yang akan dilatih pada 2 (NN2) dapat dilihat pada Tabel 31

dan Tabel 32 dalam Lampiran 3.


3) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5 dan target

output . Format untuk aturan fuzzy kedua ( 3 ) adalah:

3 : = 1 , 2 , 3 , 4 , 5 3 = 3 (1 , 2 , 3 , 4 , 5 )

13 1 31 , 2 32 , 3 33 , 4 34 , 5 35 3 =

3 (1 , 2 , 3 , 4 , 5 )

23 1 31 , 2 32 , 3 33 , 4 34 , 5 35 3 =

3 (1 , 2 , 3 , 4 , 5 )

33 1 31 , 2 32 , 3 33 , 4 34 , 5 25 3 =

3 (1 , 2 , 3 , 4 , 5 )

108

Data TRD dan CHD yang akan dilatih pada 3 (NN3) dapat dilihat pada Tabel 33

dan Tabel 34 dalam Lampiran 3.

e. Penyederhanaan bagian konsekuen (bagian THEN) menggunakan


metode backward.
Pada bagian ini, akan dilakukan penyederhanaan bagian konsekuen.
Pembelajaran jaringan syaraf untuk penyederhanaan pada bagian THEN dari

menggunakan metode backward untuk jaringan backpropagation lavenberg


marquardt dengan 1 lapisan tersembunyi. Parameter yang digunakan pada
jaringan ini adalah: maksimum epoh=1000, laju pembelajaran=1, dan toleransi
error = 10-6. Fungsi aktivasi yang digunakan antara lapisan input dengan lapisan
tersembunyi adalah fungsi sigmoid biner dan fungsi linear untuk lapisan antara
lapisan tersembunyi dan lapisan output.
Selanjutnya, parameter konsekuen dicari dengan menggunakan metode
LSE. Parameter konsekuen yang diperoleh akan digunakan untuk memperbaiki
bagian anteseden pada pembelajaran selanjutnya. Pembelajaran pada tiap jaringan
syaraf dengan 3 aturan inferensi fuzzy adalah sebagai berikut.

1) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5

dengan target output dan diawali dengan pencarian jumlah neuron pada lapisan

tersembunyi berdasarkan nilai MSE. Nilai MSE diperoleh dari TRD proses
percobaan pembelajaran jaringan syaraf. Hasil percobaan dapat yang diperoleh
dapat dilihat pada Tabel 4.11.

109

Tabel 4. 11 MSE Hasil Training Model 4 pada (NN1)

NEURON
1
2
3
4
5

MSE
2,02E-01
1,61E-02
1,06E-01
3,01E-11
5,10E-08

NEURON
6
7
8
9
10

MSE
8,27E-12
2,60E-11
1,52E-07
2,90E-08
9,95E-07

NEURON
11
12
13
14
15

MSE
6,39E-09
2,92E-11
4,20E-09
3,56E-09
5,58E-08

*) model training terbaik

Berdasarkan Tabel 4.11, nilai MSE terkecil diperoleh pada saat jumlah
neuron 4. Oleh karena itu, jaringan 1 yang akan dibangun menggunakan 4
neuron pada lapisan tersembunyi. Proses seleksi variabel input pada pembelajaran

NN1 dilatih menggunakan jaringan backpropagation lavenberg marquardt dengan


1 lapisan tersembunyi dengan 4 neuron pada lapisan tersembunyinya. Parameter
yang digunakan pada jaringan ini adalah: maksimum epoh = 1000, laju
pembelajaran = 1, dan toleransi error = 10-6.
Eliminasi backward dilakukan untuk semua variabel input. Proses
pembelajaran jaringan mendapatkan nilai SSE berdasarkan persamaan 4.5 seperti
yang dapat dilihat pada Tabel 4.12.
Tabel 4. 12 SSE Hasil TRD dengan 4 Neuron Pada Lapisan
Tersembunyi R NN1 Model 4
Eliminasi
x1
x2
x3
x4
x5

Input
x1, x2, x3, x4,x5
x2, x3, x4,x5
x1, x3, x4x5
x1, x2, x4,x5*
x1, x2, x3
x1,x2,x3,x4

MSE
0.16391
0.24415
0.43647
0.40292
0.33066
5.56676

SSE
12.1294
18.0674
32.2989
29.8161
24.4691
411.9402

Berdasarkan Tabel 4.12, nilai SSE yang diperoleh saat tidak ada variabel
yang dieliminasi cukup kecil, maka semua input berontribusi dalam proses
pembelajaran. Pembelajaran 1 dengan input 1 , 3 , 2 , 4 , 5 dilatih kembali

menggunakan jaringan backpropagation lavenberg marquardt dengan 4 neuron

110

pada 1 lapisan tersembunyi. Proses pembelajaran jaringan dilakukan dengan


1 , 2 , 4 , 5 dengan target output untuk menentukan konsekuen parameter.
Hasil penyederhanaan konsekuen pada pembelajaran TRD dan CHD pada 1

dapat dilihat pada Tabel 49 dan Tabel 50 Lampiran 5.


Format aturan untuk aturan pertama 1 adalah

1 : 1 11 , 2 12 , 3 13 , 4 14 5 15 1 =

1 (1 , 2 , 3 , 4 , 5 ) dengan,

1 (1 , 2 , 4 , 5 ) = 0.29771 + 0.12872 +0.22913 0.21694 +0.18635 +

0.0012

2) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5

dengan target output dan diawali dengan pencarian jumlah neuron pada lapisan

tersembunyi berdasarkan nilai MSE. Nilai MSE diperoleh dari TRD proses
percobaan pembelajaran jaringan syaraf. Hasil percobaan dapat yang diperoleh
dapat dilihat pada Tabel 4.13.
Tabel 4. 13 MSE Hasil Training Model 4 pada (NN2)

NEURON
1
2
3
4
5

MSE
4,38E-02
4,35E-02
4,08E-09
1,16E-09
3,40E-10

NEURON
6
7
8
9
10

MSE
7,90E-09
4,92E-11
3,13E-10
4,33E-12
7,16E-09

NEURON
MSE
11
6,70E-11
12
9,75E-08
13
3,68E-08
14
2,81E-09
15
8,61E-08
*) model training terbaik

Berdasarkan Tabel 4.13, nilai MSE terkecil diperoleh pada saat jumlah
neuron 3. Oleh karena itu, jaringan 1 yang akan dibangun menggunakan 3
neuron pada lapisan tersembunyi.

Proses seleksi variabel input pada pembelajaran NN2 dilatih menggunakan


jaringan backpropagation lavenberg marquardt dengan 1 lapisan tersembunyi

111

dengan 3 neuron pada lapisan tersembunyinya. Parameter yang digunakan pada


jaringan ini adalah: maksimum epoh = 1000, laju pembelajaran = 1, dan toleransi
error = 10-6.
Eliminasi backward dilakukan untuk semua variabel input. Proses
pembelajaran jaringan mendapatkan nilai SSE berdasarkan Persamaan (4.5)
seperti yang dapat dilihat pada Tabel 4.14.
Tabel 4. 14 SSE Hasil TRD dengan 3 Neuron pada Lapisan
TerseMbunyi R NN2 Model 4
Eliminasi
x1
x2
x3
x4
x5
x1,x2,x3,x5

Input
x1, x2, x3, x4,x5
x2, x3, x4
x1, x3, x4
x1, x2, x4*
x1, x2, x3
x1,x2,x3,x4
x4

MSE
0.10317
0.03061
0.02710
0.06152
0.12822
0.09391
0.14523

SSE
7.6345
2.2648
2.0053
4.5525
9.4882
6.9494
10.7468

Berdasarkan Tabel 4.14, nilai SSE yang diperoleh saat tidak ada variabel
yang dieliminasi cukup kecil, maka semua variabel berkonstribusi dalam proses
pembelajaran. Pembelajaran 2 dengan input 1 , 2 , 3 , 4 , 5 dilatih kembali

menggunakan jaringan backpropagation lavenberg marquardt dengan 3 neuron


pada 1 lapisan tersembunyi. Proses pembelajaran jaringan dilakukan dengan input
1 , 2 , 3 , 4 , 5 dengan target output untuk menentukan konsekuen parameter.

Hasil penyederhanaan konsekuen pada pembelajaran TRD dan CHD pada 2


dapat dilihat pada Tabel 51 dan Tabel 52 Lampiran 5.
Format aturan untuk aturan pertama 2 adalah

2 : 1 21 , 2 22 , 3 23 , 4 24 5 25 2 =
2 (1 , 2 , 3 , 4 , 5 ) dengan,
2 (1 , 2 , 3 , 4 , 5 )

= 1.08181 0.21842 0.05793 +0.22294 0.01415 0.0007


112

3) Pembelajaran pada

Proses pembelajaran jaringan dilakukan dengan input 1 , 2 , 3 , 4 , 5

dengan target output dan diawali dengan pencarian jumlah neuron pada lapisan

tersembunyi berdasarkan nilai MSE. Nilai MSE diperoleh dari TRD proses
percobaan pembelajaran jaringan syaraf. Hasil percobaan dapat yang diperoleh
dapat dilihat pada Tabel 4.15.
Tabel 4. 15 MSE Hasil Training Model 4 pada (NN3)

NEURON

MSE

NEURON

MSE

NEURON

MSE

5,89E-01

1,24E-07

11*

3,73E-12

4,24E-01

7,09E-07

12

6,62E-09

2,45E-01

1,11E-11

13

7,52E-09

2,60E-03

1,04E-11

14

1,15E-10

6,88E-07

10

6,39E-07
15
4,97E-08
*) model training terbaik

Berdasarkan Tabel 4.15, nilai MSE terkecil diperoleh pada saat jumlah
neuron 11. Oleh karena itu, jaringan 1 yang akan dibangun menggunakan 11
neuron pada lapisan tersembunyi.

Proses seleksi variabel input pada pembelajaran NN3 dilatih menggunakan


jaringan backpropagation lavenberg marquardt dengan 1 lapisan tersembunyi
dengan 11 neuron pada lapisan tersembunyinya. Parameter yang digunakan pada
jaringan ini adalah: maksimum epoh = 1000, laju pembelajaran = 1, dan toleransi
error = 10-6.
Eliminasi backward dilakukan untuk semua variabel input. Proses
pembelajaran jaringan mendapatkan nilai MSE berdasarkan persamaan 4.5 seperti
yang dapat dilihat pada Tabel 4.16.

113

Tabel 4. 16 SSE Hasil TRD dengan 11 Neuron pada


Lapisan Tersembunyi (NN3) Model 4

Eliminasi
x1
x2
x3
x4
x5
X2,X3,X4

Input
x1, x2, x3, x4,x5*
x2, x3, x4
x1, x3, x4
x1, x2, x4
x1, x2, x3
x1,x2,x3,x4
X1,X5

MSE
0.067272
0.118361
0.015142
0.025747
0.031411
0.091601
0.143215

SSE
4.9781
8.7587
1.1205
1.9053
2.3244
6.7785
10.5979

Berdasarkan Tabel 4.16, nilai SSE yang diperoleh saat tidak ada variabel
yang dieliminasi cukup kecil, maka model tersebut yang digunakan untuk
pembelajaran. Pembelajaran 3 dengan input 1 , 2 , 3 , 4 , , 5 dilatih kembali

menggunakan jaringan backpropagation lavenberg marquardt dengan 11 neuron


pada 1 lapisan tersembunyi. Proses pembelajaran jaringan dilakukan dengan
1 , 2 , 3 , 4 , , 5 dengan target output untuk menentukan konsekuen parameter.

Hasil penyederhanaan konsekuen pada pembelajaran TRD dan CHD pada 3

dapat dilihat pada Tabel 53 dan Tabel 54 Lampiran 5.


Format aturan untuk aturan pertama 3 adalah

3 : 1 31 2 32 3 33 4 34 5 35 3 =
3 (1 , 2 , 3 , 4 , 5 ) dengan,
3 (1 , 2 , 3 , 4 , 5 )

= 0.47751 + 0.23162 + 0.21093 + 0.30484 + 0.0775 0.0024

Hasil pembelajaran TRD dan CHD pada setiap aturan fuzzy ( ) dapat dilihat
pada Tabel 55 dan Tabel 56 Lampiran 5.
a.

Penentuan output akhir


Nilai akhir dapat diperoleh dengan menggunakan persamaan 4.6

sebagai berikut.

3=1 ( ) ( )
3=1 ( )

114

, = 1,2, ,74.

Misalkan perhitungan untuk 1 TRD sebagai berikut


1 =

(26,210,000742)+(24,910,00151)+(26,831,000804)
0,0007420,00151+1,000804

= 26,83

Hasil akhir pembelajaran terhadap TRD dan CHD dapat dilihat pada Tabel 57 dan
Tabel 58 dalam Lampiran 4.
Kesesuaian dari output jaringan dan target output dapat dilihat pada
Gambar 4.15 dan Gambar 4.16 berikut.

Gambar 4. 15 Plot hasil output jaringan TRD dan target output


TRD NFS orde satu model 4

Gambar 4. 16 Plot Hasil Output Jaringan TRD dan CHD dan


Target Output TRD dan CHD NFS Orde Satu Model 4

C. Model ARIMA
Model ARIMA (Autoregressive Integrated Moving Average) merupakan
salah satu metode peramalan analisis runtun waktu yang sangat baik ketepatannya
untuk peramalan jangka pendek, sedangkan untuk peramalan jangka panjang
ketepatannya kurang baik karena cenderung flat (mendatar/konstan). Data yang
digunakan untuk peramalan dengan model ARIMA adalah data suhu udara
115

periode bulan Januari 2006 s/d Desember 2012. Pemodelan ARIMA ini
menggunakan software Minitab. Langkah-langkah pemodelan ARIMA sebagai
berikut:
1. Identifikasi Model
Langkah pertama adalah menentukan kestasioneran data. Ada 2 macam
kestasioneran data yaitu stasioner dalam varians dan stasioner dalam mean.
Kestasioneran dapat dilihat dari plot time series maupun plot ACF dan PACF.
Berikut merupakan plot times series dari data training (TRD) suhu udara
Yogyakarta periode Januari 2006 s/d Desember 2012.

Gambar 4.17 Plot time series TRD suhu udara periode Januari
2006 s/d Desember 2012

Gambar 4.18 Plot ACF TRD suhu udara

116

Gambar 4.19 Plot PACF TRD suhu udara

Untuk mengetahui kestasioneran data dalam varians maka dilakukan


transformasi Box-Cox. Jenis transformasi yang dilakukan tergantung pada nilai
estimasi seperti pada Tabel 2.2. Nilai estimasi dapat diketahui dari grafik
transformasi suhu udara, seperti pada Gambar 4.20 berikut.

Gambar 4.20 Grafik Transformasi Box-Cox Suhu Udara

Berdasarkan Gambar 4.20 diketahui bahwa nilai estimasi = 5. Nilai


estimasi tersebut sudah lebih besar dari 1, maka tidak perlu dilakukan
transformasi karena diduga data sudah stasioner dalam varians. Untuk mengetahui
stasioner dalam mean dapat dilihat dari plot time series. Berdasarkan Gambar 4.17
data sudah stasioner karena pola data cenderung konstan. Berdasarkan pola data
pada plot ACF dan PACF, sudah membentuk pola eksponensial (turun lambat
menuju nol).Model ARIMA dapat ditentukan dari grafik Autokorelasi (ACF) dan

117

grafik Autokorelasi Parsial (PACF) yang ditunjukkan pada Gambar 4.18 dan
Gambar 4.19
Plot ACF setelah lag-1 putus (menuju nol). Sedangkan pada plot PACF
putus (menuju nol) setelah lag-2, sehingga dugaan model dugaan ARIMA yang
sesuai untuk data suhu udara adalah AR(2), MA(1) atau dapat ditulis
ARIMA(2,0,1). Model ARIMA lain yang memungkinkan adalah ARIMA(2,0,0),
ARIMA(1,0,1), ARIMA(1,0,0) dan ARIMA(0,0,1) yang selanjutnya akan dipilih
model terbaik dari semua model berdasarkan uji signifikansi parameter dan
diagnosis model.
2. Uji Signifikansi Parameter
Uji signifikansi parameter model ARIMA dapat dilihat dari nilai

pada output model ARIMA dengan taraf signifikansi yang digunakan


= 0,05.

Tabel 4. 17 Uji Signifikansi Parameter Model ARIMA


Model

Parameter
AR(2)

p-value
0,097

Keterangan

ARIMA (2,0,1)

AR(1)

0,049

Tidak memenuhi

MA(1)

0,887

AR(2)

0,000

AR(1)

0,011

AR(1)

0,289

ARIMA(1,0,0)

MA(1)
AR(1)

0,016
0,000

ARIMA(0,0,1)

MA(1)

0,000

ARIMA(2,0,0)
ARIMA(1,0,1)

Memenuhi
Tidak memenuhi
Memenuhi
Memenuhi

Berdasarkan hasil Tabel 4.17 dipilih model ARIMA yang memenuhi atau
< . Jadi, model ARIMA sementara yang digunakan adalah

ARIMA(2,0,0), ARIMA(1,0,0), ARIMA(0,0,1).

118

3. Pemeriksaan Diagnosis Model


Setelah menentukan nilai nilai parameter dari model ARIMA sementara,
selanjutnya akan dilakukan pemeriksaan diagnosis pada model ARIMA sementara
untuk membuktikan bahwa model ARIMA sementara tersebut cukup memadai
dan menjadi model terbaik yang akan digunakan untuk peramalan. Pemeriksaan
diagnosis dilakukan dengan analisis galat. Analisis galat yaitu melakukan
pemeriksaan terhadap nilai galat (et) yang dihasilkan dari tahap uji signifikansi
parameter, yaitu dilakukan uji white noise dengan uji independensi galat dan uji
normalitas galat.
a) Uji Indepedensi Galat
Langkah-langkah pengujiannya sebagai berikut:
1. H0 : autokorelasi galat tidak signifikan
H1 : autokorelasi galat signifikan
2. Taraf signifikansi : = 0,05
3. Statistik Uji : Ljung-Box

4. Kriteria keputusan : H0 ditolak jika Q hitung > 2 (, K-p-q) , dengan p

adalah banyak parameter AR dan q adalah banyak parameter MA atau H0


ditolak jika p value .

119

Tabel 4. 18 Uji Ljung-Box Model ARIMA


Model
ARIMA (2,0,1)

ARIMA(2,0,0)

ARIMA(1,0,1)

ARIMA(1,0,0)

ARIMA (0,0,1)

Lag
12
24
36
48
12
24
36
48
12
24
36
48
12
24
36
48
12
24
36
48

p-value
0.524
0.199
0.481
0.701
0.625
0.248
0.536
0.746
0.275
0.093
0.286
0.564
0.01
0.001
0.005
0.031
0.343
0.103
0.313
0.623

Keterangan
Memenuhi

Memenuhi

Memenuhi

Tidak memenuhi

Memenuhi

Dari hasil uji indepedensi galat, ARIMA(2,0,1), ARIMA(2,0,0),


ARIMA(1,0,1), ARIMA(0,0,1) memenuhi kriteria pengujian L-jung-box, tetapi
untuk ARIMA(2,0,1) dan ARIMA (1,0,1) tidak memenuhi kriteria dalam uji
signifikansi parameter, sehingga model ARIMA(2,0,1) dan ARIMA (1,0,1) tidak
digunakan

untuk

model.

Sedangkan

untuk

model

ARIMA(2,0,0),

dan

ARIMA(0,0,1) memenuhi uji signifikansi parameter dan uji independensi galat,


maka model sementara ARIMA(2,0,0) dan ARIMA(0,0,1) baik digunakan untuk
memprediksi suhu udara.
b) Uji Kenormalan Galat
Uji kenormalan galat digunakan untuk memeriksa apakah galat {et}
berdistribusi normal atau tidak.
1. H0
H1

: galat { } berdistribusi normal

: galat { } berdistribusi tidak normal

2. Taraf signifiikansi: =0,05

120

3. Statistik uji: kolmogorov smirnov


= = |0 () ()| dengan

0 () = suatu fungsi distribusi frekuensi kumulatif yang terjadi di bawah


distribusi normal

() = suatu fungsi distribusi frekuensi kumulatif yang diobservasi

4. Kriteria keputusan: H0 ditolak jika p value (D)

Gambar 4. 21 Plot Uji Normalitas Galat Model ARIMA(2,0,0)

Gambar 4. 22 Plot Uji Normalitas Galat Model ARIMA(0,0,1)

121

Tabel 4. 19 Hasil Uji Normalitas Galat pada Model ARIMA


Model
ARIMA(2,0,0)
ARIMA(0,0,1)

Nilai D=KS
0,200
0,167

Keterangan
Bersifat normal
Bersifat normal

5. Kesimpulan: Pada semua model, nilai > , sehingga H0


diterima.

Jadi model ARIMA(2,0,0), dan ARIMA(1,0,1) berdistribusi


normal.
Hasil uji normalitas model ARIMA(2,0,0) dan ARIMA(0,0,1), nilai D
pada ARIMA(0,0,1) lebih kecil dibanding nilai D pada ARIMA (2,0,0). Plot
normalitas galat pada ARIMA(0,0,1) lebih mendekati garis normal.
Berdasarkan uji signifikansi parameter dan diagnosis model, diperoleh
model ARIMA(2,0,0) dan ARIMA(0,0,1). Model terbaik yang digunakan adalah
model yang mempunyai nilai MAPE dan MSE yang terkecil. Perbandingan nilai
MAPE dan MSE untuk model ARIMA(2,0,0) dan ARIMA(0,0,1) dapat dilihat
pada Tabel 59-62 Lampiran 6.
Perhitungan nilai MAPE dan MSE untuk TRD model ARIMA(0,0,1) sebagai
berikut.
0.98070761

56

% =
=

18.60520385
18

100 = 1.783105 %

= 0.3382764

Perhitungan nilai MAPE dan MSE untuk CHD model ARIMA(0,0,1) sebagai
berikut.
0.457787255
100
18

% =
=

12.23218879
18

= 2.692866206%

= 0.719540517

Perhitungan nilai MAPE dan MSE untuk TRD model ARIMA(2,0,0) sebagai
berikut.

122

0.996680906

56

% =
=

17.76024759
18

100 = 1.812147 %

= 0.3229136

Perhitungan nilai MAPE dan MSE untuk CHD model ARIMA(2,0,0) sebagai
berikut.
0.390748984

18

% =
=

10.03029908
18

100 = 2.298523437%

= 0.590017593

Nilai MAPE dan MSE TRD yang terkecil adalah pada model

ARIMA(0,01), sehingga model yang terbaik digunakan dalam peramalan suhu


udara adalah model ARIMA (0,0,1) yang dapat ditulis sebagai berikut:
= 0 + (1 1 )
= 0 + 1 1

= 25.9347 + + 0.6150 1
= 0.6150 1 + 25.9347

Misalkan prediksi 1 bulan berikutnya untuk suhu udara di Yogyakarta dapat


dihitung sebagai berikut:
= 0.6150 1 + 25.9347

75 = 0,6150 0.19535 + 25.9347 = 26,054

Kesesuaian target output dengan output jaringan untuk TRD model

ARIMA(0,1,2) ditunjukkan pada Gambar 4.26 berikut:

Gambar 4. 23 Plot Target Output dan Output Jaringan


TRD ARIMA(0,0,1)
123

Gambar 4. 24 Plot Target Output dan Output Jaringan


ARIMA(0,0,1)

D. Prediksi Suhu Udara


Setelah output jaringan diperoleh, langkah selanjutnya adalah validasi
model berdasarkan nilai MAPE dan MSE masing-masing model. Nilai MAPE dan
MSE dari tiap model dapat dilihat pada Tabel 4.20.
Tabel 4. 20 MAPE dan MSE Model NFS
No.

Model

1
2
3
4

Model 1
Model 2
Model 3
Model 4*

TRD
MAPE (%)
3,44441
1,99051
2,34874
1,68740

MSE
1,35590
0,49646
0,59299
0,35713

CHD
MAPE (%)
4,76521
3,39903
3,37356
2,54031

MSE
0,96929
2,45289
1,26199
0,81453

Tabel 4. 21 Perbandingan MAPE dan MSE NFS Orde Nol, NFS Orde Satu dan
ARIMA(0,0,1)
No

Model

1
2
3

NFS Orde Nol (Model 2)


NFS Orde Satu (Model 4)
ARIMA(0,0,1)

TRD
MAPE(%)
MSE
1,99051
0,49646
1,68740
0,35713
1.78310
0.33827

CHD
MAPE(%)
MSE
3,39903
2,45289
2,54031
0,81453
2.69286
0.71954

Berdasarkan Tabel 4.21, dari ketiga model, nilai MAPE dan MSE terkecil
terletak pada model NFS orde satu yaitu prediksi model neuro fuzzy orde satu
dengan input suhu dan kelembaban udara bulan-bulan sebelumnya. Oleh karena

124

itu, model terbaik yang digunakan dalam prediksi suhu udara 6 bulan berikutnya
adalah model 4.
Pada penelitian ini, prediksi suhu udara dilakukan dengan 3 metode yaitu
NFS orde nol, NFS orde satu dan ARIMA. Berikut hasil prediksi dari ketiga
metode tersebut.
Tabel 4. 22 Prediksi Suhu Udara

Bulan

Data Asli

Januari
Februari
Maret
April
Mei
Juni

24.3
24.5
24.8
25
24.7
25.1

Suhu Udara
NFS Orde
NFS Orde
Satu
Nol
24.33
25.13
24.83
25.23
24.78
24.38
25.76
24.76
25.41
25.41
24.69
24.99

ARIMA
26.05
24.86
25.72
25.37
25.71
25.32

Berdasarkan Tabel 4.22, output jaringan dari prediksi suhu udara yang paling
mendekati data asli adalah dengan model NFS orde satu.

125

BAB V
KESIMPULAN DAN SARAN

A. Kesimpulan
Berdasarkan pembahasan tentang prediksi suhu udara dengan menggunakan
model neuro fuzzy didapat beberapa kesimpulan, antara lain:
1. Pada penelitian ini, prediksi suhu udara dipengaruhi oleh kelembaban udara.

Langkah pertama dalam pemodelan NFS orde satu adalah pemilihan variabel
input dan output , dengan 1 , 2 , 3 , 4 , 5 sebagai input dan sebagai

output. selanjutnya membagi menjadi 56 training data (TRD) dan 18


checking data (CHD). Langkah kedua, membagi data menjadi 3 kelas
(clustering). Langkah ketiga, pembelajaran jaringan syaraf yang berhubungan
dengan anteseden (bagian IF) pada aturan-aturan inferensi fuzzy untuk
mendapatkan nilai keanggotaan setiap data pada anteseden. Langkah keempat
pembelajaran jaringan syaraf yang berhubungan dengan konsekuen (bagian
THEN) pada aturan-aturan inferensi fuzzy yang digunakan untuk menentukan
parameter pada setiap cluster dengan metode Least Square Error (LSE).
Langkah kelima, penyederhanaan bagian konsekuen dengan melakukan
eliminasi

pada variabel menggunakan jaringan backpropagation dengan

fungsi biaya SSE yang bertujuan untuk memperbaiki bagian anteseden.


Langkah ke-enam, menentukan output akhir jaringan dengan menghitung
nilai MAPE dan MSE pada CHD untuk melihat kesesuaian target output
dengan output jaringan.
2. Model terbaik yang digunakan untuk memprediksi suhu udara adalah model
neuro fuzzy orde satu dengan input 1 , 2 , 3 , 4 , 5 yang memberikan nilai
126

MAPE untuk TRD dan CHD sebesar 1,68740% dan 2,54031%, sedangkan
nilai MSE untuk TRD dan CHD sebesar 0,35713 dan 0,81453 . Selanjutnya
nilai MAPE dan MSE hasil prediksi 6 bulan berikutnya berturut-turut 1,52%
dan 0,056. Hasil prediksi pada NFS orde satu mendekati data asli.

B. Saran
Dalam skripsi ini penulis memprediksi suhu udara menggunakan model
neuro fuzzy orde satu dengan dipengaruhi faktor kelembaban udara. Faktor yang
mempengaruhi suhu udara tidak hanya kelembaban udara. Penulis menyarankan
untuk penelitian selanjutnya dengan menambahkan faktor lain seperti perawanan
(cloud density), radiasi matahari, kecepatan dan arah angin. Penulis juga
menyarankan untuk menggunakan model fuzzy yang lainnya seperti FMN tipe I,
Adaptive Neuro Fuzzy Inference (ANFIS) dan Fuzzy Neural Network (FNN),
Neural Network, jaringan basis radial, dan lain-lain.
Penentuan parameter konsekuen dari aturan fuzzy dilakukan dengan
menggunakan metode LSE. Penentuan parameter konsekuen dapat dilakukan
dengan menggunakan metode yang lain, seperti metode dekomposisi nilai singular
dan fungsi basis radial.

127

DAFTAR PUSTAKA
Abadi, A.M. (2011). A New Fuzzy Modeling for Predicting Air Teperature in
Yogyakarta. Diakses dari
http://staff.uny.ac.id/sites/default/files/132128276/paper%20agus%20ICe
MATH2011.pdf pada tanggal 11 September 2013, Jam 20.47 WIB.
Ayu Azmy Amalia. (2012). Aplikasi Model Neuro Fuzzy Untuk Memprediksi
Suku Bunga Bank Indonesia (BI Rate). Skripsi. UNY.
Demuth, Howard & Beale, Mark. 2002. Neural Network Toolbox for Use in
Matlab. USA: Mathwork Inc.
Fausett, L. (1994). Fundamentals of Neural Network (Archetectures, Algoruthms,
and Applications). Upper Saddle River, New-Jersey: Prentice-Hall.
Handoko (Ed). (1995). Klimatologi Dasar. Jakarta: PT. Dunia Pustaka Jaya.
Hanke, J. E., & Winchern, D. W. (2005). Business Forecasting. Upper Saddle
River, New Jersey:Pearson Education International
Haris Hadori, Udia. (2010). Pengantar Meteorologi. Universitas Negeri
Yogjakarta: Percetakan DH.
Horikawa, S.-i., Furuhashi, T., & Uchikawa, Y. (1992). On Fuzzy Modeling Using
Fuzzy Neural Networks With Backpropagation Algorithm. IEEE
Transactions On Neural Networks, 3, 801-806.
Informasi Bulanan Meteorologi Klimatologi dan Geofisika. BMKG Yogyakarta.
September 2012.
Jayus Priyana. (2011). Aplikasi Model Fuzzy Untuk Peramalan Suhu Udara Di
Yogyakarta. Skripsi. UNY
Kartasapoetra, A.G. (1993). Klimatologi Pengaruh Iklim Terhadap Tanah dan
Tanaman (vol.4). Jakarta: Bumi Aksara.
Klir G.J., St. Clair U., Yuan, B. 1997. Fuzzy Set Theory Foundation and
Aplication. UA: Prentice Hall Inc.
Kusumadewi, S. (2003). Artificial Intelligent (2 ed.). Yogyakarta: Graha Ilmu.
Kusumadewi, S., & Hartati, S. (2010). Neuro Fuzzy: Integrasi Sistem Fuzzy &
Jaringan Syaraf Edisi 2. Yogyakarta: Graha Ilmu.
Lakitan, B. (1997). Dasar-Dasar Klimatologi. Jakarta: PT. Raja Grafindo
Persada.

128

Lin, C.-T., & Lee, G. (1996). Neuro Fuzzy Systems. Upper Saddle River , New
Jersey: Prentice-Hall.
Machmudin, A. & Brodjol. (2012). Peramalan Temperatur Udara Di Kota
Surabaya dengan Menggunakan ARIMA dan Artificial Neural Network.
Diakses dari http://ejurnal.its.ac.id/index.php/sains_seni/article/view/1295
pada tanggal 10 September 2013, Jam 20.55
Makridakis, et al. (1999). Forecasting, 2nd Edition Terjemahan Untung Sus
Andriyanto & Abdul Basith. Jakarta : Erlangga.
Pankratz, Alan. 1983. Forecasting with Univariate Box-Jenkins Models Concepts
and Cases. Canada: John Wiley & Sons, Inc.
Prabowo Pudjo Widodo, & Handayanto, R. T. (2012). Penerapan Soft Computing
Dengan MATLAB. Bandung: Rekayasa Sains.
Putri Kartika Sari. (2012). Aplikasi Model Neuro Fuzzy Dalam Prediksi Produksi
Ikan Lele Di Kabupaten Sleman. Skripsi. UNY.
Ross, T. J. (2010). Fuzzy Logic with Engineering Applications (3 ed.). Inggris:
John Wiley & Sons Inc.
Siang, J. J. (2009). Jaringan Syaraf Tiruan & Pemrogramannya Menggunakan
Matlab. Yogyakarta: Andi.
Sri Widodo, Thomas. (2005). Sistem Neuro Fuzzy. Yogyakarta: Graha Ilmu.
Suyanto, S. M. (2008). Soft Computing Membangun Mesin Ber-IQ Tinggi.
Bandung: Informatika.
Theng, L. C., & Lee, G. (1996). Neuro Fuzzy Systems. New Jersey: Prentice-Hall.
Wei, W. W. S.. (2006). Univariate and Multivariate Methods. New Jersey :
Pearson Education.
Zimmermann. (1991). Fuzzy Sets Theory and its Applications (2 ed.).
Massachusetts: Kluwer Academic Publishers.

129

LAMPIRAN

130

Lampiran 1
Bahasa Pemrograman Matlab untuk Proses Pembelajaran pada NFS
1. Mencari neuron
clear all;clear;clc; %X1 dan X2 diganti sesuai dengan matriks
input-output yang digunakan
X1=[];%X1 adalah matriks input-output TRD
X2=[];%X2 adalah matriks input-output CHD
P=[X1(:,1:5)']; %input TRD
Pc=[X2(:,1:5)']; %nput CHD
[m, n]=size(P);
[mc, nc]=size(Pc);
T=X1(:,6)';%target output TRD
Tc=X2(:,6)';%target output CHD
%normalisasi input dan target output training dan CHD
[Pn,meanp,stdp,Tn,meant,stdt]=prestd(P,T);
[Pcn,meanpc,stdpc,Tcn,meantc,stdtc]=prestd(Pc,Tc);
%inisialisasi jaringan syaraf
n11=1; %jumlah neuron lapisan tersembunyi diubah-ubah hingga
neuron sesuai
net=newff(minmax(Pn),[n11 1],{'tansig' 'purelin' 'trainlm'});
bobot_awal_input=net.IW{1,1}
bobot_awal_lapisan= net.LW{2,1}
bobot_awal_bias_input=net.b{1,1}
bobot_awal_bias_lapisan=net.b{2,1}
%set parameter
net.trainParam.epochs=1000;
net.trainParam.goal=1e-6;
net.trainParam.lr=1;
net.trainParam.show=100;
%melakukan pebelajaran
net=train(net,Pn,Tn);
%melihat bobot akhir input, lapisan, dan bias
bobot_akhir_input=net.IW{1,1}
bobot_akhir_lapisan= net.LW{2,1}
bobot_akhir_bias_input=net.b{1,1}
bobot_akhir_bias_lapisan=net.b{2,1}
%menghitung MSE
y1 = sim(net,Pn);
e1 = Tn-y1;
MSE = mse(e1)

2. Proses eliminasi variabel input


clear all;clear;clc;%X1 dan X2 diganti sesuai matriks inputoutput yang digunakan
X1=[];%X1 adalah matriks input-output TRD
X2=[];%X2 adalah matriks input-output CHD
P=[X1(:,2:4)'];
%input
TRD
diganti
sesuai
input
yang
dieliminasi
Pc=[X2(:,2:4)'];
%input
CHD
diganti
sesuai
input
yang
dieliminasi
[m, n]=size(P);
[mc, nc]=size(Pc);
T=X1(:,6)';%target output TRD

131

Tc=X2(:,6)';%target output CHD


%normalisasi input dan target output training dan CHD
[Pn,meanp,stdp,Tn,meant,stdt]=prestd(P,T);
[Pcn,meanpc,stdpc,Tcn,meantc,stdtc]=prestd(Pc,Tc);
%inisialisasi jaringan syaraf
n11=11; %jumlah neuron lapisan tersembunyi
net=newff(minmax(Pn),[n11 1],{'tansig' 'purelin' 'trainlm'});
bobot_awal_3input=net.IW{1,1}
bobot_awal_lapisan= net.LW{2,1}
bobot_awal_bias_input=net.b{1,1}
bobot_awal_bias_lapisan=net.b{2,1}
%set parameter
net.trainParam.epochs=1000;
net.trainParam.goal=1e-6;
net.trainParam.lr=1;
net.trainParam.show=100;
%melakukan pebelajaran
net=train(net,Pn,Tn);
%melihat bobot akhir input, lapisan, dan bias
bobot_akhir_input=net.IW{1,1}
bobot_akhir_lapisan= net.LW{2,1}
bobot_akhir_bias_input=net.b{1,1}
bobot_akhir_bias_lapisan=net.b{2,1}
%menghitung MSE
y1 = sim(net,Pn);
e1 = Tn-y1;
MSE = mse(e1)
%melakukan simulasi
PPn = [Pn Pcn];
TTn = [Tn Tcn];
y_1 = sim(net,PPn);
SSE = sum((y_1-TTn).^2)
[m0,b,r] = postreg(y_1(1,:),TTn)

3. Proses clustering
clear all;clear;clc; %X1 dan X2 adalah matriks input-output
sesuai hasil eliminasi
X1=[];%X1 adalah input-output TRD
X2=[];%X2 adalah input-output CHD
P=[X1(:,1:5)']; %input TRD
Pc=[X2(:,1:5)']; %input CHD
[m, n]=size(P);
[mc, nc]=size(Pc);
T=X1(:,6)';%target output TRD
Tc=X2(:,6)';%target output TRD
%normalisasi input dan target output training dan CHD
[Pn,meanp,stdp,Tn,meant,stdt]=prestd(P,T);
[Pcn,meanpc,stdpc,Tcn,meantc,stdtc]=prestd(Pc,Tc);
n12=18; %jumlah neuron lapisan tersembunyi
net=newff(minmax(Pn),[n12 1],{'tansig' 'purelin' 'trainlm'});
bobot_awal_input=net.IW{1,1}
bobot_awal_lapisan= net.LW{2,1}
bobot_awal_bias_input=net.b{1,1}
bobot_awal_bias_lapisan=net.b{2,1}
%set parameter
net.trainParam.epochs=1000;
net.trainParam.goal=1e-6;
net.trainParam.lr=1;

132

net.trainParam.show=100;
%melakukan pebelajaran
net=train(net,Pn,Tn);
%melihat bobot akhir input, lapisan, dan bias
bobot_akhir_input=net.IW{1,1}
bobot_akhir_lapisan= net.LW{2,1}
bobot_akhir_bias_input=net.b{1,1}
bobot_akhir_bias_lapisan=net.b{2,1}
%menghitung MSE
y1 = sim(net,Pn);
e1 = Tn-y1;
MSE = mse(e1)
%melakukan simulasi
PPn = [Pn Pcn];
TTn = [Tn Tcn];
y_1 = sim(net,PPn);
SSE = sum((y_1-TTn).^2);
[m0,b,r] = postreg(y_1(1,:),TTn);
%clustering dengan FCM
X3=[P; T]; %TRD yang akan dicluster
X4=[Pc; Tc]; %CHD yang akan dicluster
X3=X3';
X4=X4';
C=3; %jumlah cluster disesuaikan
[V,U,obj_fcn]=fcm(X3,C)
[Vc,Uc,obj_fcn_c]=fcm(X4,C)
[DT, II]=max(U)
[DTc, IIc]=max(Uc)
for k=1:C,
for j=1:n,
if II(j)==k,
TA(j,k)=1;
else
TA(j,k)=0;
end;
end;
end;
for k=1:C,
for j=1:nc,
if IIc(j)==k,
TAc(j,k)=1;
else
TAc(j,k)=0;
end;
end;
end;
%menghitung nilai keanggotaan tiap data pada bagian anteseden
n12=18; %jumlah neuron lapisan tersembunyi
%inisialisasi jaringan syaraf
net=newff(minmax(Pn),[n12 C],{'tansig' 'purelin' 'trainlm'});
bobot_awal_input=net.IW{1,1}
bobot_awal_lapisan= net.LW{2,1}
bobot_awal_bias_input=net.b{1,1}
bobot_awal_bias_lapisan=net.b{2,1}
%set parameter
net.trainParam.epochs=1000;
net.trainParam.goal=1e-6;
net.trainParam.lr=1;
net.trainParam.show=100;
%melakukan pembelajaran

133

net=train(net,Pn,TA');
%melihat bobot akhir input, lapisan, dan bias
bobot_akhir_input=net.IW{1,1}
bobot_akhir_lapisan= net.LW{2,1}
bobot_akhir_bias_input=net.b{1,1}
bobot_akhir_bias_lapisan=net.b{2,1}
%menghitung nilai MSE
y2=sim(net,Pn);
e2=TA'-y2;
perf_2=mse(e2)
%melakukan simulasi
muA=sim(net,Pn) %nilai keanggotaan tarining data pada bagian
anteseden
muAc=sim(net,Pcn) %nilai keanggotaan CHD pada bagian anteseden

4. Penyederhanaan bagian konsekuen (bagian THEN ) atau mencari parameter


dengan LSE
function T=LSE(A,y);
[n m]=size(A);
n1=m;
n2=n-n1;
A1=A(1:n1,:);
y1=y(1:n1,:);
A2=A(n1+1:end,:);
y2=y(n1+1:end,:);
P=inv(A1'*A1);
T=P*A1'*y1;
for i=1:n2,
P=P-(P*A2(i,:)'*A2(i,:)*P)/(1+A2(i,:)*P*A2(i,:)');
T=T+P*A2(i,:)'*(y2(i,:)-A2(i,:)*T);
end;
D=A*T;
k=1:n;
E1=[];%E1 adalah TRD setiap cluster setelah proses eliminasi
R1=LSE(E1(:,1:4),E1(:,5));% yr1=E1(:,1:4)*R1;
E=E1(:,5)-yr1;
e=mean(E);
R1=[R1' e]

5. Pembelajaran jaringan syaraf bagian konsekuen (bagian THEN ) untuk setiap


RNNs
clear all;clear;clc;
X1=[];% matriks input-output TRD awal
X2=[];% matriks input-output CHD awal
P=[X1(:,1:5)'];%input TRD
Pc=[X2(:,1:5)'];%input CHD
[m,n]=size(P);
[mc,nc]=size(Pc);
T=X1(:,6)';%target output TRD
Tc=X2(:,6)';%target output CHD
[Pn,meanp,stdp,Tn,meant,stdt]=prestd(P,T);
[Pcn,meanpc,stdpc,Tcn,meantc,stdtc]=prestd(Pc,Tc);
E1=[];%matriks TRD setiap kelas
E2=[];%matriks CHD setiap kelas
P1=[E1(:,1:5)']; % input TRD RNNs
[m1,n1]=size(P1);

134

Pc1=E2(:,1:5)'; %input CHD RNNs


[mc1,nc1]=size(Pc1);
T1=E1(:,6)';%target output TRD RNNs
Tc1=E2(:,6)';%target output CHD RNNs
%normalisasi THD & CHD
[p1n,meanp1,stdp1,t1n,meant1,stdt1]=prestd(P1,T1);
[pc1n,meanpc1,stdpc1,tcln,meantc1,stdtc1]=prestd(Pc1,Tc1);
[p2n,meanp2,stdp2,t2n,meant2,stdt2]=prestd(P,T);
[pc2n,meanpc2,stdpc2,tc2n,meantc2,stdtc2]=prestd(Pc,Tc);
%inisialisasi
net=newff(minmax(p1n),[10 1],{'logsig''purelin'},'trainlm');
bobot_awal_input=net.IW{1,1}
bobot_awal_bias_input=net.b{1,1}
bobot_awal_lapisan=net.LW{2,1}
bobot_awal_bias_output=net.b{2,1}
%set parameter
net.trainParam.epochs=1000;
net.trainParam.goal=1e-6;
net.trainParam.lr=1;
net.trainParam.show=100;
%melakukan pembelajaran
net=train(net,p1n,t1n);
%melihat bobot akhir input, lapisan, dan bias
bobot_akhir_input=net.IW{1,1}
bobot_akhir_bias_input=net.b{1,1}
bobot_akhir_lapisan=net.LW{2,1}
bobot_akhir_bias_lapisan=net.b{2,1}
%melakukan simulasi
muS01=sim(net,p2n);
muS1=sim(net,pc2n);
muS0a=poststd(muS01,meant1,stdt1);
muSa=poststd(muS1,meant1,stdt1);
muAS=[];
muAA=[];
muAS=[muAS;muSa]
muAA=[muAA;muS0a]

6. Penentuan Output Akhir


clear all;clear;clc;% data eliminasi pertama
X1=[];% matriks input-output TRD awal
X2=[];% matriks input-output CHD awal
P=[X1(:,1:4)']; %input TRD
Pc=[X2(:,1:4)']; %input CHD
[m, n]=size(P);
[mc, nc]=size(Pc);
T=X1(:,5)'; %target output TRD
Tc=X2(:,5)'; %target output CHD
muA=[];%matriks TRD hasil pembelajaran jaringan
IF
muAc=[];% matriks CHD hasil pembelajaran jaringan
IF
muAA=[];% matriks TRD hasil pembelajaran jaringan
THEN
muAS=[];% matriks CHD hasil pembelajaran jaringan
THEN
muA=muA';
muAc=muAc';
muAA=muAA';

135

syaraf bagian
syaraf bagian
syaraf bagian
syaraf bagian

muAS=muAS';
%menghitung output jaringan untuk TRD
for i=1:56,
yt0(i)=0;
st0(i)=0;
for k=1:3,
yt0(i)=yt0(i)+muA(k,i)*muAA(k,i);
st0(i)=st0(i)+muA(k,i);
end;
yt0(i)=yt0(i)/st0(i)
end;
%menghitung output jaringan untuk CHD
for i=1:16,
yt1(i)=0;
st1(i)=0;
for k=1:3,
yt1(i)=yt1(i)+muAc(k,i)*muAS(k,i);
st1(i)=st1(i)+muAc(k,i);
end;
yt1(i)=yt1(i)/st1(i)
end;
E=T-yt0;
mse_TRD=mse(E)
Ec=Tc-yt1;
mse_CHD=mse(Ec)

136

Lampiran 2
Data dan Hasil Pembelajaran pada Model 1
Tabel 1 Tabel Data Suhu Udara () Bulan Januari 2006 s/d Desember 2012
Data Ke1

Suhu
25,71

Data Ke22

Suhu
26,52

Data Ke43

Suhu
24,86

Data Ke64

Suhu
25,91

26,19

23

25,83

44

24,67

65

26,11

25,80

24

26,80

45

26,05

66

25,48

26,25

25

27,17

46

26,83

67

24,95

25,81

26

25,4

47

26,85

68

25,67

24,50

27

25,45

48

26,66

69

26,24

23,64

28

26,05

49

26,26

70

27,10

24,10

29

25,73

50

26,52

71

26,40

24,60

30

24,90

51

26,78

72

26,38

10

26,40

31

23,96

52

26,91

73

25,97

11

27,80

32

25,10

53

26,75

74

26,05

12

26,70

33

26,14

54

26,39

75

25,21

13

26,53

34

26,96

55

25,95

76

25,10

14

26,09

35

25,56

56

26,27

77

25,00

15

26,06

36

25,60

57

26,20

78

24,20

16

26,25

37

24,83

58

26,13

79

22,90

17

26,60

38

25,63

59

26,43

80

25,34

18

25,45

39

26,43

60

25,67

81

25,84

19

24,70

40

26,60

61

25,72

82

26,64

20

24,58

41

26,31

62

26,01

83

26,94

21

25,01

42

26,10

63

25,80

84

26,57

Tabel 2 Input dan Output Data TRD Model 1


x4

x3

x2

x1

t-10

t-7

t-2

t-1

25,71

26,25

24,60

26,40

27,80

26,19

25,81

26,40

27,80

26,70

25,80

24,50

27,80

26,70

26,53

26,25

23,64

26,70

26,53

26,09

25,81

24,10

26,53

26,09

26,06

24,50

24,60

26,09

26,06

26,25

23,64

26,40

26,06

26,25

26,60

24,10

27,80

26,25

26,60

25,45

24,60

26,70

26,60

25,45

24,70

10

26,40

26,53

25,45

24,70

24,58

11

27,80

26,09

24,70

24,58

25,01

Data Ke-

137

Target Output (Y)

x4

x3

x2

x1

t-10

t-7

t-2

t-1

12

26,70

26,06

24,58

25,01

26,52

13

26,53

26,25

25,01

26,52

25,83

14

26,09

26,60

26,52

25,83

26,80

15

26,06

25,45

25,83

26,80

27,17

16

26,25

24,70

26,80

27,17

25,14

17

26,60

24,58

27,17

25,14

25,45

18

25,45

25,01

25,14

25,45

26,05

19

24,70

26,52

25,45

26,05

25,73

20

24,58

25,83

26,05

25,73

24,90

21

25,01

26,80

25,73

24,90

23,96

22

26,52

27,17

24,90

23,96

25,10

23

25,83

25,14

23,96

25,10

26,14

24

26,80

25,45

25,10

26,14

26,96

25

27,17

26,05

26,14

26,96

25,56

26

25,14

25,73

26,96

25,56

25,60

27

25,45

24,90

25,56

25,60

24,83

28

26,05

23,96

25,60

24,83

25,63

29

25,73

25,10

24,83

25,63

26,43

30

24,90

26,14

25,63

26,43

26,60

31

23,96

26,96

26,43

26,60

26,31

32

25,10

25,56

26,60

26,31

26,10

33

26,14

25,60

26,31

26,10

24,86

34

26,96

24,83

26,10

24,86

24,67

35

25,56

25,63

24,86

24,67

26,05

36

25,60

26,43

24,67

26,05

26,83

37

24,83

26,60

26,05

26,83

26,85

38

25,63

26,31

26,83

26,85

26,66

39

26,43

26,10

26,85

26,66

26,26

40

26,60

24,86

26,66

26,26

26,52

41

26,31

24,67

26,26

26,52

26,78

42

26,10

26,05

26,52

26,78

26,91

43

24,86

26,83

26,78

26,91

26,75

44

24,67

26,85

26,91

26,75

26,39

45

26,05

26,66

26,75

26,39

25,95

46

26,83

26,26

26,39

25,95

26,27

47

26,85

26,52

25,95

26,27

26,20

48

26,66

26,78

26,27

26,20

26,13

49

26,26

26,91

26,20

26,13

26,43

50

26,52

26,75

26,13

26,43

25,67

51

26,78

26,39

26,43

25,67

25,72

Data Ke-

138

Target Output (Y)

x4

x3

x2

x1

t-10

t-7

t-2

t-1

52

26,91

25,95

25,67

25,72

26,01

53

26,75

26,27

25,72

26,01

25,80

54

26,39

26,20

26,01

25,80

25,91

55

25,95

26,13

25,80

25,91

26,11

56

26,27

26,43

25,91

26,11

25,48

Data Ke-

Target Output (Y)

Tabel 3 Input dan Output CHD Model 1


x4

x3

x2

x1

t-10

t-7

t-2

t-1

26,20

25,67

26,11

25,48

24,95

26,13

25,72

25,48

24,95

25,67

26,43

26,01

24,95

25,67

26,24

25,67

25,80

25,67

26,24

27,10

25,72

25,91

26,24

27,10

26,40

26,01

26,11

27,10

26,40

26,38

25,80

25,48

26,40

26,38

25,97

25,91

24,95

26,38

25,97

26,05

26,11

25,67

25,97

26,05

25,21

10

25,48

26,24

26,05

25,21

25,10

11

24,95

27,10

25,21

25,10

25,00

12

25,67

26,40

25,10

25,00

24,20

13

26,24

26,38

25,00

24,20

22,90

14

27,10

25,97

24,20

22,90

25,34

15

26,40

26,05

22,90

25,34

25,84

16

26,38

25,21

25,34

25,84

26,64

17

25,97

25,10

25,84

26,64

26,94

18

26,05

25,00

26,64

26,94

26,57

Data Ke-

Target Output (Y)

Tabel 4 Nilai Keanggotaan Tiap TRD Model 1 pada Setiap Cluster


Matriks Partisi (U)

0,2391

0,1733

0,5875

Maksimal
0,5875

0,1769

0,0905

0,7325

0, 325

0,4985

0,13

0,3715

0,4985

0,562

0,2082

0,2297

0,562

0,6033

0,1224

0,2743

0,6033

0,2631

0,4062

0,3307

0,4062

0,1 91

0,6024

0,2186

0,6024

Data Ke-

139

Cluster

0,118

0,7696

0,1124

0,7696

0,1408

0,749

0,1102

0,749

10

0,5012

0,2912

0,2076

0,5012

11

0,5094

0,1736

0,3169

0,5094

12

0,3175

0,1296

0,5529

0,5529

13

0,315

0,1307

0,5543

0,5543

14

0,2531

0,1573

0,5896

0,5896

15

0,3878

0,3192

0,293

0,3878

16

0,5676

0,227

0,2054

0,5676

17

0,7525

0,1168

0,1307

0,7525

18

0,3098

0,5059

0,1843

0,5059

19

0,1686

0,6494

0,182

0,6494

20

0,1711

0,6747

0,1542

0,6747

21

0,2889

0,5013

0,2098

0,5013

22

0,5534

0,136

0,3106

0,5534

23

0,2054

0,1245

0,6701

0,6701

24

0,3018

0,2203

0,4779

0,4779

25

0,4206

0,2683

0,3111

0,4206

26

0,0807

0,8612

0,0582

0,8612

27

0,4372

0,3537

0,2092

0,4372

28

0,3968

0,0889

0,5144

0,5144

29

0,0501

0,017

0,9329

0,9329

30

0,1721

0,185

0,6429

0,6429

31

0,1843

0,546

0,2697

0,546

32

0,1123

0,7986

0,0891

0,7986

33

0,4187

0,4012

0,1801

0,4187

34

0,5917

0,1652

0,2431

0,5917

35

0,3423

0,1145

0,5432

0,5432

36

0,1573

0,0871

0,7556

0,7556

37

0,1856

0,1748

0,6396

0,6396

38

0,2672

0,0915

0,6414

0,6414

39

0,6206

0,1015

0,2778

0,6206

40

0,5393

0,1172

0,3435

0,5393

41

0,4588

0,1158

0,4253

0,4588

42

0,3514

0,093

0,5556

0,5556

43

0,294

0,2824

0,4235

0,4235

44

0,3076

0,375

0,3174

0,375

45

0,7119

0,1083

0,1798

0,7119

46

0,7562

0,0763

0,1675

0,7562

47

0,7789

0,056

0,1652

0,7789

48

0,6349

0,0773

0,2878

0,6349

49

0,6412

0,136

0,2227

0,6412

140

50

0,8942

0,0419

0,0639

0,8942

51

0,8394

0,0546

0,106

0,8394

52

0,8193

0,0662

0,1145

0,8193

53

0,7026

0,0743

0,223

0,7026

54

0,5667

0,1253

0,308

0,5667

55

0,3171

0,4734

0,2094

0,4734

56

0,4301

0,3714

0,1985

0,4301

Tabel 5 Nilai Keanggotaan Tiap CHD Model 1 pada Setiap Cluster


Matriks Partisi (U)

0,0316

0,9285

0,0399

Maksimal
0,9285

0,0755

0,5116

0,413

0,5116

0,035

0,1418

0,8231

0,8231

0,0483

0,122

0,8297

0,8297

0,0621

0,2205

0,7175

0,7175

0,1138

0,4303

0,456

0,456

0,32

0,411

0,264

0,411

0,4626

0,3615

0,176

0,4626

0,64

0,2761

0,084

0,64

10

0,9581

0,0284

0,0136

0,9581

11

0,7484

0,1522

0,0994

0,7484

12

0,5593

0,291

0,1497

0,5593

13

0,3494

0,4581

0,1926

0,4581

14

0,0944

0,6028

0,3029

0,6028

15

0,079

0,2832

0,6378

0,6378

16

0,147

0,287

0,566

0,566

17

0,0283

0,0911

0,8806

0,8806

18

0,0436

0,1238

0,8417

0,8417

Data Ke-

Cluster

Tabel 6 Nilai Keanggotaan Tiap TRD Model 1 pada Setiap Cluster dalam

Himpunan Tegas
Data
Ke-

Matriks Partisi (U)

Cluster

Maksimal
1

141

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

142

49

50

51

52

53

54

55

56

Tabel 7 Nilai Keanggotaan Tiap CHD Model 1 pada Setiap Cluster dalam

Himpunan Tegas
Data Ke1
2

Matriks Partisi (U)

Cluster

Maksimal
1

10

11

12

13

14

15

16

17

18

3
1

Tabel 8 Nilai Keanggotaan Tiap TRD Model 1 Pada Bagian IF ( )

Data Ke1

Nilai Keanggotaan

0
-0,0002
1,0001

Data Ke29

-0,0006

-0,0008

1,0015

30

0,9999

0,0001

1,0001

0,0001

1,0006

0,0008

Nilai Keanggotaan

-0,0017
-0,0024
1,0041
-0,0002

-0,0002

1,0004

31

1,0001

-0,0001

-0,0002

32

0,0001

0,9999

-0,0014

33

0,9999

0,0001

143

Data Ke6

Nilai Keanggotaan

0
1
0

Data Ke34

Nilai Keanggotaan

0,9998
-0,0003
0,0005

-0,0001

0,9999

0,0002

35

0,0002

0,0002

0,9996

-0,0001

36

0,0013

0,0022

0,9965

0,0001

-0,0001

37

0,0002

0,0001

0,9997

10

38

-0,0013

-0,0017

1,003

11

39

0,9991

-0,0012

0,0021

12

0,0006

0,0008

0,9986

40

1,0007

0,0011

-0,0017

13

-0,0003

-0,0006

1,0009

41

0,9988

-0,0016

0,0028

14

0,0001

0,9999

42

0,0013

0,0017

0,997

15

0,9999

0,0001

43

0,0004

0,0004

0,9992

16

-0,0001

44

17

1,0005

0,0006

-0,0011

45

0,9994

-0,0008

0,0014

18

-0,0001

0,9998

0,0002

46

0,999

-0,0013

0,0023

19

47

1,0004

0,0004

-0,0008

20

0,9999

48

1,0012

0,0017

-0,0029

21

49

1,0003

0,0005

-0,0008

22

1,0008

0,0011

-0,0019

50

0,9997

-0,0004

0,0007

23

-0,0004

-0,0006

1,0009

51

1,0001

0,0001

-0,0002

24

52

1,0004

0,0006

-0,0009

25

0,9992

-0,0011

0,0019

53

1,0006

0,0009

-0,0015

26

54

0,9993

-0,0011

0,0018

27

55

1,0001

-0,0001

28

0,0006

0,001

0,9984

56

Tabel 9 Nilai Keanggotaan Tiap CHD Model 1 Pada Bagian IF ( )

Data Ke1
2

Nilai Keanggotaan

0,8116
0,1772
0,0111

Data Ke-

Nilai Keanggotaan

10

0,893

0,3602

-0,2532

1,2151

-0,197

-0,0181

11

-0,2288

1,4869

- ,2581

0,1921

-0,0257

0,8336

12

0,1124

0,9541

-0,0666

0,0565

-0,048

0,9915

13

-0,1363

1,9341

-0,7978

0,0253

-0,0205

0,9952

14

1,6395

-0,5766

-0,063

1,1492

-0,139

-0,0102

15

-0,1494

0,1271

1,0223

0,4667

0,4972

0,0362

16

0,0827

-0,0678

0,9851

-0,2674

1,2763

-0,0089

17

-0,0376

0,0197

1,0179

1,5864

-0,4888

-0,0977

18

0,0056

-0,0075

1,0019

144

Asal Data Ke-

Tabel 10 Data TRD yang Dilatih pada ( )


Variabel Input

Target Output

x4

x3

x2

x1

25,80

24,50

27,80

26,70

26,53

26,25

23,64

26,70

26,53

26,09

25,81

24,10

26,53

26,09

26,06

10

26,40

26,53

25,45

24,70

24,58

11

27,80

26,09

24,70

24,58

25,01

15

26,06

25,45

25,83

26,80

27,17

16

26,25

24,70

26,80

27,17

25,14

17

26,60

24,58

27,17

25,14

25,45

22

26,52

27,17

24,90

23,96

25,10

25

27,17

26,05

26,14

26,96

25,56

27

25,45

24,90

25,56

25,60

24,83

33

26,14

25,60

26,31

26,10

24,86

34

26,96

24,83

26,10

24,86

24,67

39

26,43

26,10

26,85

26,66

26,26

40

26,60

24,86

26,66

26,26

26,52

41

26,31

24,67

26,26

26,52

26,78

45

26,05

26,66

26,75

26,39

25,95

46

26,83

26,26

26,39

25,95

26,27

47

26,85

26,52

25,95

26,27

26,20

48

26,66

26,78

26,27

26,20

26,13

49

26,26

26,91

26,20

26,13

26,43

50

26,52

26,75

26,13

26,43

25,67

51

26,78

26,39

26,43

25,67

25,72

52

26,91

25,95

25,67

25,72

26,01

53

26,75

26,27

25,72

26,01

25,80

54

26,39

26,20

26,01

25,80

25,91

56

26,27

26,43

25,91

26,11

25,48

Asal Data Ke-

Tabel 11 Data CHD yang Dilatih pada 1 (1 )


Variabel Input

Target Output

x4

x3

x2

x1

25,91

24,95

26,38

25,97

26,05

26,11

25,67

25,97

26,05

25,21

10

25,48

26,24

26,05

25,21

25,10

11

24,95

27,10

25,21

25,10

25,00

12

25,67

26,40

25,10

25,00

24,20

145

Asal Data Ke-

Tabel 12 Data TRD yang Dilatih pada ( )


Variabel Input

Target Output

x4

x3

x2

x1

26,20

25,67

26,11

25,48

24,95

26,13

25,72

25,48

24,95

25,67

25,80

25,48

26,40

26,38

25,97

13

26,24

26,38

25,00

24,20

22,90

14

27,10

25,97

24,20

22,90

25,34

Tabel 13 Data CHD yang Dilatih pada ( )


Variabel Input

x4

x3

x2

x1

Target Output
y

26,2

25,91

24,95

25,67

26,24

26,13

26,11

25,67

26,24

27,1

25,8

27,1

25,97

26,05

25,21

13

26,24

25,1

22,9

25,34

25,84

14

27,1

25

25,34

25,84

26,64

Asal Data Ke-

Asal Data Ke-

Tabel 14 Data TRD yang Dilatih pada 3 (3 )


Variabel Input

Target Output

x4

x3

x2

x1

25,71

26,25

24,60

26,40

27,80

26,19

25,81

26,40

27,80

26,70

12

26,70

26,06

24,58

25,01

26,52

13

26,53

26,25

25,01

26,52

25,83

14

26,09

26,60

26,52

25,83

26,80

23

25,83

25,14

23,96

25,10

26,14

24

26,80

25,45

25,10

26,14

26,96

28

26,05

23,96

25,60

24,83

25,63

29

25,73

25,10

24,83

25,63

26,43

30

24,90

26,14

25,63

26,43

26,60

35

25,56

25,63

24,86

24,67

26,05

36

25,60

26,43

24,67

26,05

26,83

37

24,83

26,60

26,05

26,83

26,85

38

25,63

26,31

26,83

26,85

26,66

42

26,10

26,05

26,52

26,78

26,91

43

24,86

26,83

26,78

26,91

26,75

146

Tabel 15 Data CHD yang Dilatih pada ( )


Variabel Input

Asal Data Ke-

Target Output

x4

x3

x2

x1

26,43

26,01

24,95

25,67

26,24

25,67

25,80

25,67

26,24

27,10

25,72

25,91

26,24

27,10

26,40

26,01

26,11

27,10

26,40

26,38

15

26,40

26,05

22,90

25,34

25,84

16

26,38

25,21

25,34

25,84

26,64

17

25,97

25,10

25,84

26,64

26,94

18

26,05

25,00

26,64

26,94

26,57

Data
Ke-

Tabel 16 Hasil Pembelajaran TRD pada Setiap ( ( ))


Hasil Pembelajaran ( )

Data
Ke-

( )

( )

( )
28,25

29

23,98

26,06

27,26

24,37

26,05

26,04

Hasil Pembelajaran ( )

( )

( )

( )

30

25,87

26,34

26,76

24,25

31

25,80

26,68

26,97

26,80

25,11

32

24,93

25,76

26,47

26,44

26,31

24,86

33

26,71

25,79

26,48

26,10

26,05

26,89

34

24,74

25,43

24,99

25,18

26,61

26,09

35

25,08

24,70

26,67

26,95

26,42

27,00

36

25,73

25,67

27,21

24,72

25,51

26,38

37

26,40

26,26

26,74

10

23,54

23,97

27,85

38

26,41

26,55

26,95

11

25,01

25,09

26,48

39

25,82

26,32

26,43

12

26,66

25,11

26,40

40

26,13

26,11

25,53

13

25,20

25,80

26,70

41

27,20

26,32

26,21

14

24,52

25,30

26,95

42

25,86

26,62

27,31

15

27,80

26,82

26,99

43

26,62

26,28

26,61

16

26,05

26,30

26,48

44

25,78

26,34

26,66

17

25,13

25,62

23,99

45

25,58

26,11

26,98

18

25,35

24,87

26,96

46

26,16

25,72

25,85

19

24,54

26,54

26,29

47

26,25

26,10

26,00

20

24,37

25,60

25,75

48

25,83

25,98

27,30

21

23,22

25,00

25,75

49

25,94

25,80

27,18

22

24,07

24,16

26,97

50

26,07

26,03

27,40

23

27,42

26,07

27,25

51

25,91

25,18

26,54

24

26,64

26,34

27,15

52

26,49

25,21

25,88

25

25,75

26,29

26,27

53

26,47

25,81

26,04

26,19

25,70

147

26,41

25,35

27,05

26

25,11

25,21

25,24

54

26,58

25,30

27,28

27

26,37

24,98

26,94

55

26,75

25,54

27,73

28

26,04

25,92

25,25

56

26,48

25,91

27,63

Data
Ke1

Tabel 17 Hasil Pembelajaran CHD pada Setiap ( ( ))


Hasil Pembelajaran ( )

( )

( )

( )

26,17

25,77

26,10

25,56

26,32

24,61

Data
Ke-

26,32

10

27,24

11

26,13

12

Hasil Pembelajaran ( )

( )

( )

( )

24,36

25,88

26,22

25,02

25,57

24,28

26,77

26,46

26,04

25,42

26,20

27,12

13

24,13

24,29

27,42

25,95

26,74

27,19

14

24,72

24,94

26,39

24,77

26,12

26,94

15

25,83

25,21

26,47

25,12

26,10

27,54

16

28,09

26,23

26,64

26,14

26,07

25,12

17

27,10

26,41

26,55

26,86

26,11

26,83

18

25,35

26,18

25,95

Tabel 18 Hasil Pelatihan Akhir TRD Model 1


Variabel Input

Data ke-

Target
Otput (Y)

Output
Jaringan
(Y*)

X4

X3

X2

X1

25,71

24,1

27,8

26,7

26,53

28,25

26,19

24,6

26,7

26,53

26,09

27,26

25,8

26,4

26,53

26,09

26,06

24,37

26,25

27,8

26,09

26,06

26,25

26,04

25,81

26,7

26,06

26,25

26,6

26,44

24,5

26,53

26,25

26,6

25,45

26,05

23,64

26,09

26,6

25,45

24,7

26,61

24,1

26,06

25,45

24,7

24,58

26,42

24,6

26,25

24,7

24,58

25,01

25,51

10

26,4

26,6

24,58

25,01

26,52

23,54

11

27,8

25,45

25,01

26,52

25,83

25,01

12

26,7

24,7

26,52

25,83

26,8

26,40

13

26,53

24,58

25,83

26,8

27,17

26,70

14

26,09

25,01

26,8

27,17

25,14

26,95

15

26,06

26,52

27,17

25,14

25,45

27,80

16

26,25

25,83

25,14

25,45

26,05

26,05

17

26,6

26,8

25,45

26,05

25,73

25,13

18

25,45

27,17

26,05

25,73

24,9

24,87

19

24,7

25,14

25,73

24,9

23,96

26,54

20

24,58

25,45

24,9

23,96

25,1

25,60

148

21

25,01

26,05

23,96

25,1

26,14

25,00

22

26,52

25,73

25,1

26,14

26,96

24,06

23

25,83

24,9

26,14

26,96

25,56

27,25

24

26,8

23,96

26,96

25,56

25,6

27,15

25

27,17

25,1

25,56

25,6

24,83

25,75

26

25,14

26,14

25,6

24,83

25,63

25,21

27

25,45

26,96

24,83

25,63

26,43

26,37

28

26,05

25,56

25,63

26,43

26,6

25,25

29

25,73

25,6

26,43

26,6

26,31

27,06

30

24,9

24,83

26,6

26,31

26,1

26,76

31

23,96

25,63

26,31

26,1

24,86

26,68

32

25,1

26,43

26,1

24,86

24,67

25,76

33

26,14

26,6

24,86

24,67

26,05

26,71

34

26,96

26,31

24,67

26,05

26,83

24,74

35

25,56

26,1

26,05

26,83

26,85

26,67

36

25,6

24,86

26,83

26,85

26,66

27,20

37

24,83

24,67

26,85

26,66

26,26

26,74

38

25,63

26,05

26,66

26,26

26,52

26,95

39

26,43

26,83

26,26

26,52

26,78

25,82

40

26,6

26,85

26,52

26,78

26,91

26,13

41

26,31

26,66

26,78

26,91

26,75

27,20

42

26,1

26,26

26,91

26,75

26,39

27,31

43

24,86

26,52

26,75

26,39

25,95

26,61

44

24,67

26,78

26,39

25,95

26,27

26,34

45

26,05

26,91

25,95

26,27

26,2

25,58

46

26,83

26,75

26,27

26,2

26,13

26,16

47

26,85

26,39

26,2

26,13

26,43

26,25

48

26,66

25,95

26,13

26,43

25,67

25,83

49

26,26

26,27

26,43

25,67

25,72

25,94

50

26,52

26,2

25,67

25,72

26,01

26,07

51

26,78

26,13

25,72

26,01

25,8

25,91

52

26,91

26,43

26,01

25,8

25,91

26,49

53

26,75

25,67

25,8

25,91

26,11

26,47

54

26,39

25,72

25,91

26,11

25,48

26,58

55

25,95

26,01

26,11

25,48

24,95

25,54

56

26,27

25,8

25,48

24,95

25,67

26,48

Output
Jaringan
(Y*)

Tabel 19 Hasil Pelatihan Akhir CHD Model 1


Variabel Input
X4

X3

X2

X1

Target
Otput (Y)

26,2

25,91

24,95

25,67

26,24

26,01

26,13

26,11

25,67

26,24

27,1

26,64

Data ke-

149

Variabel Input

Output
Jaringan
(Y*)

X4

X3

X2

X1

Target
Otput (Y)

26,43

25,48

26,24

27,1

26,4

26,15

25,67

24,95

27,1

26,4

26,38

27,07

25,72

25,67

26,4

26,38

25,97

27,17

26,01

26,24

26,38

25,97

26,05

24,56

25,8

27,1

25,97

26,05

25,21

25,69

25,91

26,4

26,05

25,21

25,1

26,06

26,11

26,38

25,21

25,1

25

27,23

10

25,48

25,97

25,1

25

24,2

24,85

11

24,95

26,05

25

24,2

22,9

27,53

12

25,67

25,21

24,2

22,9

25,34

25,69

13

26,24

25,1

22,9

25,34

25,84

21,81

14

27,1

25

25,34

25,84

26,64

24,49

15

26,4

24,2

25,84

26,64

26,94

26,41

16

26,38

22,9

26,64

26,94

26,57

26,79

17

25,97

25,34

26,94

26,57

26,94

26,53

18

26,05

25,84

26,57

26,94

26,57

25,94

Data ke3

150

Lampiran 3
Data dan Hasil Pembelajaran pada Model 2
Tabel 20 Data Kelembaban Udara (%) Bulan Januari 2006 s/d Desember 2012
Data
Ke1

Kelembab
-an
85,01

Data
Ke22

Kelembab
-an
75,57

Data
Ke43

Kelembab
-an
76,37

Data
Ke64

Kelembab
-an
84,92

84,03

23

81,96

44

75,55

65

82,14

84,97

24

81,68

45

73,39

66

75,85

84,79

25

78,13

46

74,50

67

75,87

84,09

26

85,10

47

78,32

68

67,26

80,56

27

86,16

48

79,52

69

69,27

77,48

28

83,03

49

81,55

70

70,94

74,08

29

78,34

50

83,94

71

82,00

73,53

30

78,86

51

82,97

72

82,60

10

73,31

31

73,28

52

83,32

73

82,67

11

71,01

32

73,37

53

85,30

74

83,39

12

81,21

33

72,55

54

82,30

75

86,61

13

77,81

34

76,14

55

81,34

76

79,00

14

83,38

35

86,08

56

78,17

77

76,90

15

36,61

36

83,56

57

82,98

78

76,30

16

84,79

37

86,70

58

82,50

79

74,80

17

80,81

38

84,45

59

83,23

80

74,00

18

80,25

39

81,22

60

84,83

81

74,52

19

78,98

40

83,16

61

83,88

82

75,60

20

74,32

41

83,05

62

81,83

83

87,09

21

73,65

42

79,68

63

84,57

84

87,84

Tabel 21 Input dan Output Data TRD Model 2


Data Ke1
2
3
4
5
6
7
8
9
10

X5
t-1
85,01
84,03
84,97
84,79
84,09
80,56
77,48
74,08
73,53
73,31

x4
t-10
25,71
26,19
25,80
26,25
25,81
24,50
23,64
24,10
24,60
26,40

x3
t-7
26,25
25,81
24,50
23,64
24,10
24,60
26,40
27,80
26,70
26,53

151

x2
t-2
24,60
26,40
27,80
x5
26,53
26,09
26,06
26,25
26,60
25,45

x1
t-1
26,40
27,80
26,70
26,53
26,09
26,06
26,25
26,60
25,45
24,70

Target Output (Y)


27,80
26,70
26,53
26,09
26,06
26,25
26,60
25,45
24,70
24,58

Data Ke11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52

X5
t-1
71,01
81,21
77,81
83,38
36,61
84,79
80,81
80,25
78,98
74,32
73,65
75,57
81,96
81,68
78,13
85,10
86,16
83,03
78,34
78,86
73,28
73,37
72,55
76,14
86,08
83,56
86,70
84,45
81,22
83,16
83,05
79,68
76,37
75,55
73,39
74,50
78,32
79,52
81,55
83,94
82,97
83,32

x4
t-10
27,80
26,70
26,53
26,09
26,06
26,25
26,60
25,45
24,70
24,58
25,01
26,52
25,83
26,80
27,17
25,14
25,45
26,05
25,73
24,90
23,96
25,10
26,14
26,96
25,56
25,60
24,83
25,63
26,43
26,60
26,31
26,10
24,86
24,67
26,05
26,83
26,85
26,66
26,26
26,52
26,78
26,91

x3
t-7
26,09
26,06
26,25
26,60
25,45
24,70
24,58
25,01
26,52
25,83
26,80
27,17
25,14
25,45
26,05
25,73
24,90
23,96
25,10
26,14
26,96
25,56
25,60
24,83
25,63
26,43
26,60
26,31
26,10
24,86
24,67
26,05
26,83
26,85
26,66
26,26
26,52
26,78
26,91
26,75
26,39
25,95

152

x2
t-2
24,70
24,58
25,01
26,52
25,83
26,80
27,17
25,14
25,45
26,05
25,73
24,90
23,96
25,10
26,14
26,96
25,56
25,60
24,83
25,63
26,43
26,60
26,31
26,10
24,86
24,67
26,05
26,83
26,85
26,66
26,26
26,52
26,78
26,91
26,75
26,39
25,95
26,27
26,20
26,13
26,43
25,67

x1
t-1
24,58
25,01
26,52
25,83
26,80
27,17
25,14
25,45
26,05
25,73
24,90
23,96
25,10
26,14
26,96
25,56
25,60
24,83
25,63
26,43
26,60
26,31
26,10
24,86
24,67
26,05
26,83
26,85
26,66
26,26
26,52
26,78
26,91
26,75
26,39
25,95
26,27
26,20
26,13
26,43
25,67
25,72

Target Output (Y)


25,01
26,52
25,83
26,80
27,17
25,14
25,45
26,05
25,73
24,90
23,96
25,10
26,14
26,96
25,56
25,60
24,83
25,63
26,43
26,60
26,31
26,10
24,86
24,67
26,05
26,83
26,85
26,66
26,26
26,52
26,78
26,91
26,75
26,39
25,95
26,27
26,20
26,13
26,43
25,67
25,72
26,01

Data Ke53
54
55
56

X5
t-1
85,30
82,30
81,34
78,17

x4
t-10
26,75
26,39
25,95
26,27

x3
t-7
26,27
26,20
26,13
26,43

x2
t-2
25,72
26,01
25,80
25,91

x1
t-1
26,01
25,80
25,91
26,11

Target Output (Y)


25,80
25,91
26,11
25,48

Tabel 22 Input dan Output CHD Model 2


Data Ke1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

x5
t-1
82,98
82,50
83,23
84,83
83,88
81,83
84,57
84,92
82,14
75,85
75,87
67,26
69,27
70,94
82,00
82,60
82,67
83,39

x4
t-10
26,20
26,13
26,43
25,67
25,72
26,01
25,80
25,91
26,11
25,48
24,95
25,67
26,24
27,10
26,40
26,38
25,97
26,05

x3
t-7
25,67
25,72
26,01
25,80
25,91
26,11
25,48
24,95
25,67
26,24
27,10
26,40
26,38
25,97
26,05
25,21
25,10
25,00

x2
t-2
26,11
25,48
24,95
25,67
26,24
27,10
26,40
26,38
25,97
26,05
25,21
25,10
25,00
24,20
22,90
25,34
25,84
26,64

x1
t-1
25,48
24,95
25,67
26,24
27,10
26,40
26,38
25,97
26,05
25,21
25,10
25,00
24,20
22,90
25,34
25,84
26,64
26,94

Target Output (Y)


24,95
25,67
26,24
27,10
26,40
26,38
25,97
26,05
25,21
25,10
25,00
24,20
22,90
25,34
25,84
26,64
26,94
26,57

Tabel 23 Nilai Keanggotaan TRD Model 2 pada Setiap Cluster


Matriks Partisi (U)

0,1221

0,0419

0,8361

Maksimal
0,8361

0,0533

0,0154

0,9313

0,9313

0,0429

0,014

0,9431

0,9431

0,0876

0,0296

0,8828

0,8828

0,0283

0,0083

0,9633

0,9633

0,527

0,0783

0,3948

0,527

0, 079

0,1808

0,1114

0,7079

0,1846

0,7745

0,0408

0,7745

0,091

0,8874

0,0217

0,8874

10

0,0902

0,8885

0,0213

0,8885

Data Ke-

153

Cluster

Matriks Partisi (U)

11

0,155

0,7944

0,0507

Maksimal
0,7944

12

0,3578

0,0614

0,5808

0,5808

13

0,8048

0,1013

0,0939

0,8048

14

0,0873

0,0233

0,8895

0,8895

15

0,3243

0,4247

0,251

0,4247

16

0,0595

0,0195

0,9211

0,9211

17

0,4619

0,0681

0,47

0,47

18

0,5949

0,0833

0,3218

0,5949

19

0,6952

0,1254

0,1794

0,6952

20

0,2132

0,7397

0,0471

0,7397

21

0,1123

0,8616

0,0262

0,8616

22

0,5488

0,3829

0,0683

0,5488

23

0,2029

0,0398

0,7573

0,7573

24

0,3074

0,0655

0,6271

0,6271

25

0,8214

0,09

0,0885

0,8214

26

0,0924

0,032

0,8755

0,8755

27

0,1204

0,0467

0,8329

0,8329

28

0,0375

0,0091

0,9533

0,9533

29

0,9481

0,0231

0,0288

0,9481

30

0,8343

0,0616

0,1041

0,8343

31

0,1602

0,8018

0,0379

0,8018

32

0,0839

0,8972

0,0189

0,8972

33

0,0373

0,953

0,0098

0,953

34

0,6253

0,2948

0,0799

0,6253

35

0,0932

0,0345

0,8723

0,8723

36

0,0641

0,0175

0,9184

0,9184

37

0,134

0,0527

0,8133

0,8133

38

0,028

0,0085

0,9635

0,9635

39

0,3387

0,057

0,6044

0,6044

40

0,0719

0,0189

0,9092

0,9092

41

0,0685

0,0173

0,9141

0,9141

42

0,7319

0,0629

0,2053

0,7319

43

0,7372

0,1999

0,0628

0,7372

44

0,5281

0,4059

0,066

0,5281

45

0,1136

0,8624

0,024

0,8624

46

0,3233

0,6236

0,0531

0,6236

47

0,9035

0,0436

0,0529

0,9035

48

0,8004

0,0521

0,1475

0,8004

49

0,2597

0,0437

0,6967

0,6967

50

0,0245

0,007

0,9684

0,9684

51

0,0496

0,012

0,9384

0,9384

52

0,0419

0,011

0,9471

0,9471

Data Ke-

154

Cluster

Matriks Partisi (U)

53

0,0599

0,0204

0,9197

Maksimal
0,9197

54

0,11

0,0226

0,8674

0,8674

55

0,3447

0,0572

0,5981

0,5981

56

0,8998

0,0514

0,0488

0,8998

Data Ke-

Cluster

Tabel 24 Nilai Keanggotaan CHD Model 2 pada Setiap Cluster


Matriks Partisi (U)

0,9575

0,0097

0,0327

Maksimal

0,9575

0,9614

0,0092

0,0294

0,9614

0,9834

0,0041

0,0125

0,9834

0,9444

0,0148

0,0408

0,9444

0,9878

0,003

0,0092

0,9878

0,9348

0,0135

0,0518

0,9348

,9216

0,0192

0,0592

0,9216

0,915

0,021

0,064

0,915

0,8594

0,027

0,1136

0,8594

10

0,0076

0,0091

0,9833

0,9833

11

0,0119

0,0144

0,9737

0,9737

12

0,0231

0,9008

0,0761

0,9008

13

0,0082

0,9617

0,0301

0,9617

14

0,0419

0,7958

0,1623

0,7958

15

0,9085

0,0222

0,0692

0,9085

16

0,86

0,0368

0,1033

0,86

17

0,9683

0,0077

0,0239

0,9683

18

0,985

0,0037

0,0113

0,985

Data Ke-

Cluster

Tabel 25 Nilai Keanggotaan TRD Model 2 pada Setiap Cluster dalam Himpunan Tegas
Matriks Partisi (U)

Cluster

Maksimal

10

Data Ke1
2

0
0

0
0

155

Matriks Partisi (U)

Cluster

Maksimal

13

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

Data Ke11
12

0
0

1
0

156

Matriks Partisi (U)

Cluster

Maksimal

55

56

Data Ke53

54

Tabel 26 Nilai Keanggotaan CHD Model 2 pada Setiap Cluster dalam Himpunan Tegas
Matriks Partisi (U)

Cluster

Maksimal
1

10

11

12

13

14

15

16

18

Data Ke-

Data
Ke-

Tabel 27 Nilai Keanggotaan Tiap TRD Model 2 Pada Bagian IF ( )

Nilai Keanggotaan

Data
Ke-

Nilai Keanggotaan

0,000742

-0,00151

1,000804

29

1,000602

-0,00141

0,000689

0,000147

-7,4E-05

1,0001

30

0,999746

0,000613

-0,00037

0,001532

-0,00319

1,001603

31

-0,00016

1,000009

2,03E-05

-0,00013

0,000151

0,999999

32

8,47E-05

0,999829

-7, E-0

-0,00179

0,003686

0,998001

33

0,000224

1,000046

-7,5E-05

0,999996

-0,00038

0,000107

34

0,999536

0,000399

-0,00024

1,000027

0,000119

-1E-05

35

-0,00016

-0,00038

0,999767

-0,00012

1,00005

0,000206

36

0,000481

-0,0009

1,000658

-6,3E-06

1,000051

-0,00012

37

-0,00037

0,001512

0,999483

157

Data
Ke-

Nilai Keanggotaan

Data
Ke-

Nilai Keanggotaan

10

8,6E-05

1,000038

-0,00012

38

-0,00043

0,001086

0,999437

11

-0,00078

1,000289

0,000227

39

0,001663

-0,00306

1,001892

12

-0,00097

0,002768

0,998277

40

-0,00138

0,002987

0,998327

13

0,999781

0,000472

-0,00023

41

0,001376

-0,00301

1,001632

14

-0,0007

0,001506

0,999161

42

0,999107

0,001912

-0,00094

15

0,000817

1,000195

-0,00103

43

0,999752

2E-05

-5,5E-06

16

0,000552

-0,00084

1,000468

44

0,999843

0,000179

-9,9E-05

17

0,000475

-0,00058

1,000284

45

0,000118

1,000254

-3,2E-05

18

0,999988

-4,5E-05

0,000106

46

0,000143

0,999924

-8E-05

19

0,99997

0,000204

0,000181

47

0,999805

0,00072

-0,00017

20

0,000338

0,999653

-0,00015

48

0,999973

0,000304

-7,3E-05

21

4,98E-05

1,000048

3,52E-05

49

-8,3E-05

-0,00051

1,000114

22

0,999683

0,000921

-0,00026

50

-0,00149

0,003122

0,998322

23

0,000219

-0,00042

1,000186

51

0,000978

-0,00217

1,001166

24

0,000198

-0,00016

1,000097

52

-0,00037

0,000517

0,999497

25

1,001667

-0,00338

0,001614

53

-1,2E-05

5,35E-05

0,999906

26

0,00023

9,33E-05

1,000112

54

-0,00018

0,000647

0,999805

27

1,15E-05

-0,00055

0,999686

55

0,000151

0,00013

0,999729

28

0,000716

-0,00143

1,000634

56

0,999843

-0,0001

-0,00016

Data
Ke-

Tabel 28 Nilai Keanggotaan Tiap CHD Model 2 Pada Bagian IF ( )

Nilai Keanggotaan

Data
Ke-

-0,03427

0,002618

1,031614

10

-0,181

-0,06492

0,000793

1,064261

-0,04396

0,011917

1,031844

-0,28766

-0,00791

0,338172

6
7

Nilai Keanggotaan

0,770352

0,41027

0,074637

1,119766

-0,19396

12

1,818311

1,485635

-2,30491

1,295884

13

-0,08069

1,531467

-0,44785

3,62E-05

0,66181

14

-2,46093

1,671522

1,789596

0,256232

-0,03836

0,782031

15

0,982501

0,002972

0,014511

0,644119

-0,21523

0,570942

16

0,349993

-0,00154

0,651628

-0,17166

0,0717

1,099755

17

0,083651

-0,00598

0,922204

0,097898

0,158629

0,743108

18

-0,00964

0,007277

1,002273

Tabel 29 Data TRD yang Dilatih pada ( ) Model 2

x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

80,56

24,50

24,60

26,09

26,06

26,25

77,48

23,64

26,40

26,06

26,25

26,60

Data Ke-

158

Target Output (Y)

13

77,81

26,53

26,25

25,01

26,52

25,83

18

80,25

25,45

25,01

25,14

25,45

26,05

19

78,98

24,70

26,52

25,45

26,05

25,73

22

75,57

26,52

27,17

24,90

23,96

25,10

25

78,13

27,17

26,05

26,14

26,96

25,56

29

78,34

25,73

25,10

24,83

25,63

26,43

30

78,86

24,90

26,14

25,63

26,43

26,60

34

76,14

26,96

24,83

26,10

24,86

24,67

42

79,68

26,10

26,05

26,52

26,78

26,91

43

76,37

24,86

26,83

26,78

26,91

26,75

44

75,55

24,67

26,85

26,91

26,75

26,39

47

78,32

26,85

26,52

25,95

26,27

26,20

48

79,52

26,66

26,78

26,27

26,20

26,13

56

78,17

26,27

26,43

25,91

26,11

25,48

Tabel 30 Data CHD yang Dilatih pada ( ) Model 2

x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

82,98

26,20

25,67

26,11

25,48

24,95

82,50

26,13

25,72

25,48

24,95

25,67

83,23

26,43

26,01

24,95

25,67

26,24

84,83

25,67

25,80

25,67

26,24

27,10

83,88

25,72

25,91

26,24

27,10

26,40

81,83

26,01

26,11

27,10

26,40

26,38

84,57

25,80

25,48

26,40

26,38

25,97

84,92

25,91

24,95

26,38

25,97

26,05

82,14

26,11

25,67

25,97

26,05

25,21

15

82,00

26,40

26,05

22,90

25,34

25,84

16

82,60

26,38

25,21

25,34

25,84

26,64

17

82,67

25,97

25,10

25,84

26,64

26,94

18

83,39

26,05

25,00

26,64

26,94

26,57

Data Ke-

Target Output (Y)

Tabel 31 Data TRD yang Dilatih pada ( ) Model 2

x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

74,08

24,10

27,80

26,25

26,60

25,45

73,53

24,60

26,70

26,60

25,45

24,70

10

73,31

26,40

26,53

25,45

24,70

24,58

11

71,01

27,80

26,09

24,70

24,58

25,01

15

36,61

26,06

25,45

25,83

26,80

27,17

20

74,32

24,58

25,83

26,05

25,73

24,90

21

73,65

25,01

26,80

25,73

24,90

23,96

Data Ke-

159

Target Output (Y)

31

73,28

23,96

26,96

26,43

26,60

26,31

32

73,37

25,10

25,56

26,60

26,31

26,10

33

72,55

26,14

25,60

26,31

26,10

24,86

45

73,39

26,05

26,66

26,75

26,39

25,95

46

74,50

26,83

26,26

26,39

25,95

26,27

Data
Ke12
13
14

Data
Ke1
2
3
4
5
12
14
16
17
23
24
26
27
28
35
36
37
38
39
40
41
49
50
51
52

Tabel 32 Data CHD yang Dilatih pada ( ) Model 2

x5
t-1
67,26
69,27
70,94

x4
t-10
25,67
26,24
27,10

x3
t-7
26,40
26,38
25,97

x2
t-2
25,10
25,00
24,20

x1
t-1
25,00
24,20
22,90

Target Output (Y)


24,20
22,90
25.34

Tabel 33 Data TRD yang Dilatih pada ( ) Model 2

x5
t-1
85,01
84,03
84,97
84,79
84,09
81,21
83,38
84,79
80,81
81,96
81,68
85,10
86,16
83,03
86,08
83,56
86,70
84,45
81,22
83,16
83,05
81,55
83,94
82,97
83,32

x4
t-10
25,71
26,19
25,80
26,25
25,81
26,70
26,09
26,25
26,60
25,83
26,80
25,14
25,45
26,05
25,56
25,60
24,83
25,63
26,43
26,60
26,31
26,26
26,52
26,78
26,91

x3
t-7
26,25
25,81
24,50
23,64
24,10
26,06
26,60
24,70
24,58
25,14
25,45
25,73
24,90
23,96
25,63
26,43
26,60
26,31
26,10
24,86
24,67
26,91
26,75
26,39
25,95

x2
t-2
24,60
26,40
27,80
26,70
26,53
24,58
26,52
26,80
27,17
23,96
25,10
26,96
25,56
25,60
24,86
24,67
26,05
26,83
26,85
26,66
26,26
26,20
26,13
26,43
25,67

160

x1
t-1
26,40
27,80
26,70
26,53
26,09
25,01
25,83
27,17
25,14
25,10
26,14
25,56
25,60
24,83
24,67
26,05
26,83
26,85
26,66
26,26
26,52
26,13
26,43
25,67
25,72

Target Output (Y)


27,80
26,70
26,53
26,09
26,06
26,52
26,80
25,14
25,45
26,14
26,96
25,60
24,83
25,63
26,05
26,83
26,85
26,66
26,26
26,52
26,78
26,43
25,67
25,72
26,01

x5
t-1
85,30
82,30
81,34

Data
Ke53
54
55

x4
t-10
26,75
26,39
25,95

x3
t-7
26,27
26,20
26,13

x2
t-2
25,72
26,01
25,80

x1
t-1
26,01
25,80
25,91

Target Output (Y)


25,80
25,91
26,11

Tabel 34 Data CHD yang Dilatih pada ( ) Model 2

x5
t-1
75,85
75,87

Data
Ke10
11

x4
t-10
25,48
24,95

x3
t-7
26,24
27,10

x2
t-2
26,05
25,21

x1
t-1
25,21
25,10

Target Output (Y)


25,10
25,00

Tabel 35 Hasil Pembelajaran TRD pada Setiap ( ( )) Model 2

Data Ke-

Hasil Pembelajaran ( )

Data Ke-

( )
26,36

( )
24,52

( )
27,05
26,26

30

28,09

26,46

26,45

27,72

25,34

26,97

Hasil Pembelajaran ( )

( )
26,09

( )
23,87

( )
26,27

31

26,62

25,80

27,17

26,28

32

26,39

26,51

26,46

25,30

26,28

33

24,98

24,97

26,80

26,78

26,85

26,19

34

24,89

24,08

26,10

26,61

25,94

26,63

35

25,77

23,16

26,01

26,88

26,03

28,07

36

25,88

24,31

27,16

25,70

24,03

26,49

37

27,55

25,61

26,55

10

24,94

24,27

26,85

38

27,64

25,70

25,89

11

23,76

25,11

27,15

39

26,10

26,21

25,34

12

24,91

24,86

27,60

40

26,56

24,90

25,92

13

25,84

25,30

26,66

41

27,30

24,88

25,41

14

25,34

25,56

25,76

42

26,62

25,77

25,89

15

25,92

28,11

27,14

43

27,95

26,69

27,62

16

27,72

25,71

25,36

44

27,92

26,58

27,57

17

25,44

25,39

25,47

45

25,65

25,46

26,26

18

25,98

24,12

25,68

46

25,55

25,56

25,76

19

25,89

24,45

26,23

47

25,93

25,68

25,47

20

26,37

25,13

26,27

48

25,90

25,37

25,25

21

25,20

23,44

27,65

49

25,63

25,16

25,81

22

25,24

24,86

26,76

50

26,13

25,26

25,34

23

26,73

23,39

26,38

51

26,08

25,98

24,84

24

26,38

25,88

26,18

52

25,94

26,17

25,56

25

25,46

26,36

25,82

53

26,17

26,07

25,62

26

25,62

24,72

25,69

54

25,38

25,64

25,08

1
2

27,40

26,70

29

161

26,47

24,88

26,32

Data Ke27
28

Hasil Pembelajaran ( )

( )
25,78
25,90

( )
24,56

Data Ke-

( )
24,85

24,41

55

25,74

56

Hasil Pembelajaran ( )

( )
25,30
25,28

( )
24,97
25,15

( )
25,48
25,47

Tabel 36 Hasil Pembelajaran CHD pada Setiap ( ( )) Model 2


Data Ke-

Hasil Pembelajaran ( )

Data Ke-

25,39

10

( )
25,69

( )

( )
24,87
24,96

11

26,03

25,96

26,25

27,22

24,82

28,09

Hasil Pembelajaran ( )

( )

( )

( )
26,45

12

24,26

24,33

26,30

25,51

13

24,65

24,49

26,59

25,81

26,56

14

23,99

25,45

26,96

26,75

25,90

26,40

15

26,04

24,64

27,70

27,97

25,37

25,77

16

26,64

24,86

25,08

27,57

25,36

26,10

17

27,90

25,66

25,37

26,65

25,30

25,43

18

28,00

25,97

25,99

Output
Jaringan
(Y*)
27,05

1
2

24,84

24,75

25,63
26,26

24,09
24,78

28,72

Tabel 37 Hasil Pelatihan Akhir TRD Model 2

X5

X4

X3

X2

X1

85,01

25,71

24,1

27,8

26,7

Target
Otput
(Y)
26,53

84,03

26,19

24,6

26,7

26,53

26,09

26,26

84,97

25,8

26,4

26,53

26,09

26,06

26,45

84,79

26,25

27,8

26,09

26,06

26,25

26,28

84,09

25,81

26,7

26,06

26,25

26,6

26,28

80,56

24,5

26,53

26,25

26,6

25,45

26,78

77,48

23,64

26,09

26,6

25,45

24,7

24,71

74,08

24,1

26,06

25,45

24,7

24,58

26,03

73,53

24,6

26,25

24,7

24,58

25,01

24,03

10

73,31

26,4

26,6

24,58

25,01

26,52

26,51

11

71,01

27,8

25,45

25,01

26,52

25,83

25,11

12

81,21

26,7

24,7

26,52

25,83

26,8

27,60

13

77,81

26,53

24,58

25,83

26,8

27,17

25,84

14

83,38

26,09

25,01

26,8

27,17

25,14

25,76

Variabel Input
Data ke-

15

36,61

26,06

26,52

27,17

25,14

25,45

25,41

16

84,79

26,25

25,83

25,14

25,45

26,05

25,36

17

80,81

26,6

26,8

25,45

26,05

25,73

25,47

18

80,25

25,45

27,17

26,05

25,73

24,9

24,98

19

78,98

24,7

25,14

25,73

24,9

23,96

23,89

20

74,32

24,58

25,45

24,9

23,96

25,1

25,13

162

21

73,65

25,01

26,05

23,96

25,1

26,14

26,15

22

75,57

26,52

25,73

25,1

26,14

26,96

25,24

23

81,96

25,83

24,9

26,14

26,96

25,56

26,38

24

81,68

26,8

23,96

26,96

25,56

25,6

26,18

25

78,13

27,17

25,1

25,56

25,6

24,83

25,46

26

85,10

25,14

26,14

25,6

24,83

25,63

25,69

27

86,16

25,45

26,96

24,83

25,63

26,43

26,45

28

83,03

26,05

25,56

25,63

26,43

26,6

25,74

29

78,34

25,73

25,6

26,43

26,6

26,31

26,09

30

78,86

24,9

24,83

26,6

26,31

26,1

26,47

31

73,28

23,96

25,63

26,31

26,1

24,86

25,80

32

73,37

25,1

26,43

26,1

24,86

24,67

26,51

33

72,55

26,14

26,6

24,86

24,67

26,05

26,00

34

76,14

26,96

26,31

24,67

26,05

26,83

25,89

35

86,08

25,56

26,1

26,05

26,83

26,85

26,01

36

83,56

25,6

24,86

26,83

26,85

26,66

27,16

37

86,70

24,83

24,67

26,85

26,66

26,26

26,55

38

84,45

25,63

26,05

26,66

26,26

26,52

25,89

39

81,22

26,43

26,83

26,26

26,52

26,78

25,34

40

83,16

26,6

26,85

26,52

26,78

26,91

25,92

41

83,05

26,31

26,66

26,78

26,91

26,75

25,41

42

79,68

26,1

26,26

26,91

26,75

26,39

26,62

43

76,37

24,86

26,52

26,75

26,39

25,95

25,98

44

75,55

24,67

26,78

26,39

25,95

26,27

26,29

45

73,39

26,05

26,91

25,95

26,27

26,2

25,46

46

74,50

26,83

26,75

26,27

26,2

26,13

25,56

47

78,32

26,85

26,39

26,2

26,13

26,43

26,44

48

79,52

26,66

25,95

26,13

26,43

25,67

25,90

49

81,55

26,26

26,27

26,43

25,67

25,72

25,81

50

83,94

26,52

26,2

25,67

25,72

26,01

26,34

51

82,97

26,78

26,13

25,72

26,01

25,8

25,84

52

83,32

26,91

26,43

26,01

25,8

25,91

25,56

53

85,30

26,75

25,67

25,8

25,91

26,11

26,16

54

82,30

26,39

25,72

25,91

26,11

25,48

25,08

55

81,34

25,95

26,01

26,11

25,48

24,95

25,48

56

78,17

26,27

25,8

25,48

24,95

25,67

25,28

Output
Jaringan
(Y*)
24,84
26,97

Tabel 38 Hasil Pelatihan Akhir CHD Model 2

X5

X4

X3

X2

X1

82,98

26,20

25,91

24,95

25,67

Target
Otput
(Y)
26,24

82,50

26,13

26,11

25,67

26,24

27,10

Variabel Input
Data ke-

163

X5

X4

X3

X2

X1

83,23

26,43

25,48

26,24

27,10

Target
Otput
(Y)
26,40

84,83

25,67

24,95

27,10

26,40

26,38

26,32

83,88

25,72

25,67

26,40

26,38

25,97

27,08

81,83

26,01

26,24

26,38

25,97

26,05

26,51

84,57

25,80

27,10

25,97

26,05

25,21

25,27

84,92

25,91

26,40

26,05

25,21

25,10

25,79

Variabel Input
Data ke-

Output
Jaringan
(Y*)
26,26

82,14

26,11

26,38

25,21

25,10

25,00

25,53

10

75,85

25,48

25,97

25,10

25,00

24,20

24,78

11

75,87

24,95

26,05

25,00

24,20

22,90

22,93

12

67,26

25,67

25,21

24,20

22,90

25,34

19,66

13

69,27

26,24

25,10

22,90

25,34

25,84

23,54

14

70,94

27,10

25,00

25,34

25,84

26,64

26,74

15

82,00

26,40

24,20

25,84

26,64

26,94

26,06

16

82,60

26,38

22,90

26,64

26,94

26,57

25,63

17

82,67

25,97

25,34

26,94

26,57

26,94

26,98

18

83,39

26,05

25,84

26,57

26,94

26,57

25,97

164

Lampiran 4
DATA DAN HASIL PEMBELAJARAN PADA MODEL 3
Tabel 39 Data TRD yang Dilatih pada ( ) Model 3
x4

x3

x2

x1

t-10

t-7

t-2

t-1

25,80

24,50

27,80

26,70

26,26

26,25

23,64

26,70

26,53

25,93

25,81

24,10

26,53

26,09

25,65

10

26,40

26,53

25,45

24,70

25,04

11

27,80

26,09

24,70

24,58

25,01

15

26,06

25,45

25,83

26,80

26,02

16

26,25

24,70

26,80

27,17

26,38

17

26,60

24,58

27,17

25,14

25,48

22

26,52

27,17

24,90

23,96

24,63

25

27,17

26,05

26,14

26,96

26,42

27

25,45

24,90

25,56

25,60

25,20

33

26,14

25,60

26,31

26,10

25,80

34

26,96

24,83

26,10

24,86

25,19

39

26,43

26,10

26,85

26,66

26,30

40

26,60

24,86

26,66

26,26

25,97

41

26,31

24,67

26,26

26,52

25,94

45

26,05

26,66

26,75

26,39

26,13

46

26,83

26,26

26,39

25,95

25,92

47

26,85

26,52

25,95

26,27

26,02

48

26,66

26,78

26,27

26,20

26,04

49

26,26

26,91

26,20

26,13

25,94

50

26,52

26,75

26,13

26,43

26,11

51

26,78

26,39

26,43

25,67

25,79

52

26,91

25,95

25,67

25,72

25,63

53

26,75

26,27

25,72

26,01

25,79

54

26,39

26,20

26,01

25,80

25,68

56

26,27

26,43

25,91

26,11

25,82

Data Ke-

Tabel 40 Data CHD yang Dilatih pada ( ) Model 3

x4

x3

x2

x1

t-10

t-7

t-2

t-1

25,91

24,95

26,38

25,97

25,65

26,11

25,67

25,97

26,05

25,70

10

25,48

26,24

26,05

25,21

25,24

11

24,95

27,10

25,21

25,10

25,00

Data Ke-

165

12

25,67

26,40

25,10

25,00

Tabel 41 Data TRD yang Dilatih pada ( ) Model 3

24,98

x4

x3

x2

t-10

t-7

t-2

24,50

24,60

26,09

25,66

23,64

26,40

26,06

25,28

24,10

27,80

26,25

25,50

24,60

26,70

26,60

25,96

18

25,45

25,01

25,14

25,23

19

24,70

26,52

25,45

25,15

20

24,58

25,83

26,05

25,59

21

25,01

26,80

25,73

25,44

26

25,14

25,73

26,96

26,45

31

23,96

26,96

26,43

25,63

32

25,10

25,56

26,60

26,17

44

24,67

26,85

26,91

26,21

55

25,95

26,13

25,80

25,81

Data Ke-

Data Ke-

Tabel 42 Data CHD yang Dilatih pada 2 (2 ) Model 3


x4

x3

x2

t-10

t-7

t-2

26,2

25,91

24,95

25,33

26,13

26,11

25,67

25,39

25,8

27,1

25,97

26,16

13

26,24

25,1

22,9

24,93

14

27,1

25

25,34

24,65

Tabel 43 Data TRD yang Dilatih pada 3 (3 ) Model 3


x4

x3

x2

x1

t-10

t-7

t-2

t-1

25,71

26,25

24,60

26,40

26,84

26,19

25,81

26,40

27,80

27,03

12

26,70

26,06

24,58

25,01

26,74

13

26,53

26,25

25,01

26,52

27,13

14

26,09

26,60

26,52

25,83

26,90

23

25,83

25,14

23,96

25,10

26,05

24

26,80

25,45

25,10

26,14

26,72

28

26,05

23,96

25,60

24,83

25,38

29

25,73

25,10

24,83

25,63

26,08

Data Ke-

166

30

24,90

26,14

25,63

26,43

26,47

35

25,56

25,63

24,86

24,67

26,05

36

25,60

26,43

24,67

26,05

26,80

37

24,83

26,60

26,05

26,83

26,75

38

25,63

26,31

26,83

26,85

26,84

42

26,10

26,05

26,52

26,78

26,87

43

24,86

26,83

26,78

26,91

26,86

Tabel 44 Data CHD yang Dilatih pada ( ) Model 3


x4

x3

x2

x1

t-10

t-7

t-2

t-1

26,43

26,01

24,95

25,67

26,76

25,67

25,80

25,67

26,24

26,51

25,72

25,91

26,24

27,10

26,76

26,01

26,11

27,10

26,40

26,74

15

26,40

26,05

22,90

25,34

26,80

16

26,38

25,21

25,34

25,84

26,38

17

25,97

25,10

25,84

26,64

26,35

18

26,05

25,00

26,64

26,94

26,36

Data Ke-

Data Ke-

Tabel 45 Hasil Pembelajaran TRD pada Setiap ( ( )) Model 3


Hasil Pembelajaran ( )

( )

( )

( )

26,34

( )

( )

( )

29

27,09

30

26,33

26,50

31

26,06

25,27

26,69

26,03

26,04

26,01

32

25,90

25,81

26,48

25,75

25,96

25,86

33

25,89

25,94

26,58

25,56

25,69

25,92

34

25,15

25,99

26,48

25,59

25,16

26,20

35

24,83

24,94

26,16

26,15

25,65

26,82

36

25,62

24,98

26,59

25,33

25,65

26,51

37

26,19

25,43

26,77

10

25,17

25,49

26,72

38

26,38

26,04

26,88

11

25,00

25,68

27,13

39

26,34

26,35

26,91

12

25,17

25,42

26,48

40

25,99

26,19

26,45

13

25,99

25,47

26,94

41

26,04

25,97

26,27

14

25,87

25,98

26,91

42

26,32

26,03

26,91

15

26,15

25,65

26,71

43

26,38

25,83

26,88

16

26,55

26,21

26,51

44

26,32

25,81

26,84

17

25,44

26,38

26,48

45

26,20

26,12

27,01

18

25,32

25,24

26,07

46

25,94

26,16

26,92

19

25,65

24,95

26,47

47

26,06

25,85

27,16

26,94

24,97

Hasil Pembelajaran ( )

26,59

25,80

Data Ke-

25,99

167

25,42
25,88

25,02
25,26

26,11
26,53

20

25,40

25,56

26,20

48

26,06

25,92

27,16

21

25,00

25,17

26,39

49

26,02

25,75

27,14

22

24,70

25,31

26,70

50

26,15

25,81

27,21

23

25,06

24,80

26,12

51

25,81

26,14

26,89

24

25,82

25,44

26,60

52

25,65

25,74

26,85

25

26,44

26,10

27,13

53

25,84

25,70

27,02

26

25,54

25,91

26,25

54

25,74

25,76

26,87

27

25,43

25,50

26,04

55

25,73

25,53

26,74

28

25,14

25,62

25,50

56

25,91

25,62

27,00

Tabel 46 Hasil Pembelajaran CHD pada Setiap ( ( )) Model 3

Data Ke-

Hasil Pembelajaran ( )

( )

( )

( )

25,80

26,02

Hasil Pembelajaran ( )

( )

( )

( )

26,60

10

26,51

11

25,57

26,97

12

25,49

25,13

26,69

25,95

25,67

26,62

13

25,36

25,53

26,89

26,38

25,86

26,80

14

24,79

25,74

27,08

26,33

26,31

26,86

15

25,47

24,90

26,73

26,05

25,90

26,52

16

25,87

25,82

26,38

25,85

25,96

26,10

17

26,09

25,81

26,41

25,99

25,90

26,63

18

26,32

26,14

26,39

25,80

Data Ke-

25,52

25,67

25,55

25,66

25,37

25,63

26,58

26,58

Tabel 47 Hasil Pembelajaran Akhir TRD Model 3


Variabel Input

Data ke-

Target
Otput (Y)

Output
Jaringan
(Y*)

X4

X3

X2

X1

25,71

24,10

27,80

26,70

26,53

26,59

26,19

24,60

26,70

26,53

26,09

27,09

25,80

26,40

26,53

26,09

26,06

26,34

26,25

27,80

26,09

26,06

26,25

26,03

25,81

26,70

26,06

26,25

26,60

25,75

24,50

26,53

26,25

26,60

25,45

25,69

23,64

26,09

26,60

25,45

24,70

25,16

24,10

26,06

25,45

24,70

24,58

25,65

24,60

26,25

24,70

24,58

25,01

25,65

10

26,40

26,60

24,58

25,01

26,52

25,17

11

27,80

25,45

25,01

26,52

25,83

25,00

12

26,70

24,70

26,52

25,83

26,80

26,48

13

26,53

24,58

25,83

26,80

27,17

26,94

14

26,09

25,01

26,80

27,17

25,14

26,91

15

26,06

26,52

27,17

25,14

25,45

26,15

168

16

26,25

25,83

25,14

25,45

26,05

26,55

17

26,60

26,80

25,45

26,05

25,73

25,44

18

25,45

27,17

26,05

25,73

24,90

25,24

19

24,70

25,14

25,73

24,90

23,96

24,95

20

24,58

25,45

24,90

23,96

25,10

25,56

21

25,01

26,05

23,96

25,10

26,14

25,17

22

26,52

25,73

25,10

26,14

26,96

24,70

23

25,83

24,90

26,14

26,96

25,56

26,12

24

26,80

23,96

26,96

25,56

25,60

26,60

25

27,17

25,10

25,56

25,60

24,83

26,44

26

25,14

26,14

25,60

24,83

25,63

25,91

27

25,45

26,96

24,83

25,63

26,43

25,43

28

26,05

25,56

25,63

26,43

26,60

25,50

29

25,73

25,60

26,43

26,60

26,31

26,11

30

24,90

24,83

26,60

26,31

26,10

26,53

31

23,96

25,63

26,31

26,10

24,86

25,27

32

25,10

26,43

26,10

24,86

24,67

25,81

33

26,14

26,60

24,86

24,67

26,05

25,89

34

26,96

26,31

24,67

26,05

26,83

25,15

35

25,56

26,10

26,05

26,83

26,85

26,16

36

25,60

24,86

26,83

26,85

26,66

26,59

37

24,83

24,67

26,85

26,66

26,26

26,77

38

25,63

26,05

26,66

26,26

26,52

26,88

39

26,43

26,83

26,26

26,52

26,78

26,34

40

26,60

26,85

26,52

26,78

26,91

25,99

41

26,31

26,66

26,78

26,91

26,75

26,04

42

26,10

26,26

26,91

26,75

26,39

26,91

43

24,86

26,52

26,75

26,39

25,95

26,88

44

24,67

26,78

26,39

25,95

26,27

25,81

45

26,05

26,91

25,95

26,27

26,20

26,20

46

26,83

26,75

26,27

26,20

26,13

25,94

47

26,85

26,39

26,20

26,13

26,43

26,06

48

26,66

25,95

26,13

26,43

25,67

26,06

49

26,26

26,27

26,43

25,67

25,72

26,02

50

26,52

26,20

25,67

25,72

26,01

26,15

51

26,78

26,13

25,72

26,01

25,80

25,81

52

26,91

26,43

26,01

25,80

25,91

25,65

53

26,75

25,67

25,80

25,91

26,11

25,84

54

26,39

25,72

25,91

26,11

25,48

25,74

55

25,95

26,01

26,11

25,48

24,95

25,53

56

26,27

25,80

25,48

24,95

25,67

25,91

169

Tabel 48 Hasil Pembelajaran Akhir CHD Model 3


Variabel Input

Output
Jaringan
(Y*)

X4

X3

X2

X1

Target
Otput (Y)

26,20

25,91

24,95

25,67

26,24

25,85

26,13

26,11

25,67

26,24

27,10

25,47

26,43

25,48

26,24

27,10

26,40

26,78

25,67

24,95

27,10

26,40

26,38

26,63

25,72

25,67

26,40

26,38

25,97

26,81

26,01

26,24

26,38

25,97

26,05

26,33

25,80

27,10

25,97

26,05

25,21

25,99

25,91

26,40

26,05

25,21

25,10

25,99

26,11

26,38

25,21

25,10

25,00

25,97

10

25,48

25,97

25,10

25,00

24,20

25,33

11

24,95

26,05

25,00

24,20

22,90

25,44

12

25,67

25,21

24,20

22,90

25,34

25,07

13

26,24

25,10

22,90

25,34

25,84

24,47

14

27,10

25,00

25,34

25,84

26,64

24,10

15

26,40

24,20

25,84

26,64

26,94

26,69

16

26,38

22,90

26,64

26,94

26,57

26,38

17

25,97

25,34

26,94

26,57

26,94

26,41

18

26,05

25,84

26,57

26,94

26,57

26,39

Data ke-

170

Lampiran 5
Data dan Hasil Pembelajaran Model 4
Tabel 49 Data TRD yang Dilatih pada 1 (1 ) Model 4
x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

80,56

24,50

24,60

26,09

26,06

26,45

77,48

23,64

26,40

26,06

26,25

26,53

13

77,81

26,53

26,25

25,01

26,52

25,87

18

80,25

25,45

25,01

25,14

25,45

25,98

19

78,98

24,70

26,52

25,45

26,05

26,46

22

75,57

26,52

27,17

24,90

23,96

24,89

25

78,13

27,17

26,05

26,14

26,96

26,02

29

78,34

25,73

25,10

24,83

25,63

25,59

30

78,86

24,90

26,14

25,63

26,43

26,44

34

76,14

26,96

24,83

26,10

24,86

24,79

42

79,68

26,10

26,05

26,52

26,78

26,54

43

76,37

24,86

26,83

26,78

26,91

26,44

44

75,55

24,67

26,85

26,91

26,75

26,30

47

78,32

26,85

26,52

25,95

26,27

26,00

48

79,52

26,66

26,78

26,27

26,20

26,35

56

78,17

26,27

26,43

25,91

26,11

26,03

Data Ke-

Tabel 50 Data CHD yang Dilatih pada ( ) Model 4

x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

82,98

26,20

25,67

26,11

25,48

26,61

82,50

26,13

25,72

25,48

24,95

26,30

83,23

26,43

26,01

24,95

25,67

26,58

84,83

25,67

25,80

25,67

26,24

24,58

83,88

25,72

25,91

26,24

27,10

25,79

81,83

26,01

26,11

27,10

26,40

25,63

84,57

25,80

25,48

26,40

26,38

24,85

84,92

25,91

24,95

26,38

25,97

24,30

Data Ke-

Target Output (Y)

82,14

26,11

25,67

25,97

26,05

25,09

15

82,00

26,40

26,05

22,90

25,34

24,31

16

82,60

26,38

25,21

25,34

25,84

24,78

17

82,67

25,97

25,10

25,84

26,64

25,52

18

83,39

26,05

25,00

26,64

26,94

25,75

171

Tabel 51 Data TRD yang Dilatih pada ( ) Model 4


x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

74,08

24,10

27,80

26,25

26,60

Target
Output
(Y)
25,75

73,53

24,60

26,70

26,60

25,45

24,62

10

73,31

26,40

26,53

25,45

24,70

24,48

11

71,01

27,80

26,09

24,70

24,58

24,88

15

36,61

26,06

25,45

25,83

26,80

27,17

20

74,32

24,58

25,83

26,05

25,73

25,08

21

73,65

25,01

26,80

25,73

24,90

24,31

31

73,28

23,96

26,96

26,43

26,60

25,75

32

73,37

25,10

25,56

26,60

26,31

25,73

33

72,55

26,14

25,60

26,31

26,10

25,81

45

73,39

26,05

26,66

26,75

26,39

25,94

46

74,50

26,83

26,26

26,39

25,95

25,72

Data Ke-

Tabel 52 Data CHD yang Dilatih pada ( ) Model 4


x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

12

67,26

25,67

26,40

25,10

25,00

Target
Output
(Y)
24,81

13

69,27

26,24

26,38

25,00

24,20

24,06

14

70,94

27,10

25,97

24,20

22,90

23,02

Data Ke-

Tabel 53 Data TRD yang Dilatih pada 3 (3 ) Model 4


x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

85,01

25,71

26,25

24,60

26,40

target
Output
(Y)
26,83

84,03

26,19

25,81

26,40

27,80

27,06

84,97

25,80

24,50

27,80

26,70

25,89

84,79

26,25

23,64

26,70

26,53

26,00

84,09

25,81

24,10

26,53

26,09

25,74

12

81,21

26,70

26,06

24,58

25,01

26,14

14

83,38

26,09

26,60

26,52

25,83

26,18

16

84,79

26,25

24,70

26,80

27,17

26,51

17

80,81

26,60

24,58

27,17

25,14

25,23

23

81,96

25,83

25,14

23,96

25,10

25,93

24

81,68

26,80

25,45

25,10

26,14

26,49

26

85,10

25,14

25,73

26,96

25,56

25,60

27

86,16

25,45

24,90

25,56

25,60

25,95

28

83,03

26,05

23,96

25,60

24,83

25,32

Data Ke-

172

x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

35

86,08

25,56

25,63

24,86

24,67

target
Output
(Y)
25,85

36

83,56

25,60

26,43

24,67

26,05

26,54

37

86,70

24,83

26,60

26,05

26,83

26,63

38

84,45

25,63

26,31

26,83

26,85

26,47

39

81,22

26,43

26,10

26,85

26,66

26,33

40

83,16

26,60

24,86

26,66

26,26

26,12

41

83,05

26,31

24,67

26,26

26,52

26,20

49

81,55

26,26

26,91

26,20

26,13

26,37

50

83,94

26,52

26,75

26,13

26,43

26,76

51

82,97

26,78

26,39

26,43

25,67

26,26

52

83,32

26,91

25,95

25,67

25,72

26,43

53

85,30

26,75

26,27

25,72

26,01

26,73

54

82,30

26,39

26,20

26,01

25,80

26,21

55

81,34

25,95

26,13

25,80

25,91

26,09

Data Ke-

Tabel 54 Data CHD yang Dilatih pada 3 (3 ) Model 4


x5

x4

x3

x2

x1

t-1

t-10

t-7

t-2

t-1

10

75,85

25,48

26,24

26,05

25,21

Target
Output
(Y)
25,15

11

75,87

24,95

27,10

25,21

25,10

25,31

Data Ke-

Data Ke-

Tabel 55 Hasil Pembelajaran TRD pada Setiap ( ( )) Model 4


Hasil Pembelajaran ( )

( )

( )

( )

25,88

( )

( )

( )

29

26,97

30

26,18

25,83

31

26,56

26,03

26,37

25,76

26,16

25,96

32

26,21

25,75

25,72

26,01

25,61

25,83

33

25,78

25,62

25,98

26,54

25,24

25,71

34

25,32

25,02

25,30

26,69

25,51

26,15

35

25,80

24,08

25,95

26,51

26,05

26,55

36

26,19

24,55

26,75

26,58

24,91

Hasil Pembelajaran ( )

26,83

26,21

Data Ke-

27,36

25,66

26,29

25,08

25,12

25,98

26,36

26,37

25,13

25,90

37

26,87

25,69

26,68

10

25,19

24,48

25,87

38

26,81

25,92

26,47

11

24,98

24,48

26,28

39

26,50

26,22

26,44

12

25,67

24,58

26,34

40

25,92

25,86

26,05

13

25,94

26,05

26,85

41

25,98

26,08

26,14

14

26,50

24,76

26,17

42

26,41

26,28

26,51

15

24,90

26,13

26,02

43

26,64

26,31

26,41

173

Data Ke-

Hasil Pembelajaran ( )

( )

( )

( )

18

25,73

24,98

19

26,35

20

16

26,52

Hasil Pembelajaran ( )

( )

( )

( )

26,42

44

25,18

45

25,86

46

25,65

25,57

26,24

24,73

26,28

47

25,97

25,73

26,73

26,30

25,11

25,69

48

26,17

25,52

26,59

21

26,04

24,33

25,97

49

26,37

25,07

26,52

22

25,15

23,00

25,89

50

26,43

25,45

26,79

23

25,57

24,70

26,13

51

25,98

25,12

26,16

24

25,68

25,88

26,26

52

25,89

25,40

26,33

25

26,01

26,62

26,85

53

26,10

25,34

26,62

26

26,77

24,39

25,41

54

26,06

25,20

26,28

27

26,05

25,16

25,97

55

26,11

25,11

26,29

28

25,85

25,31

25,55

56

26,01

25,35

26,49

17

26,13

Data Ke-

25,63

25,02

26,76

26,14

26,05

25,94

26,34

26,23

Tabel 56 Hasil Pembelajaran CHD pada Setiap ( ( )) Model 4


Data Ke-

Hasil Pembelajaran ( )

Data Ke-

( )

( )

( )
25,96

10

25,89

11

25,99

25,48

26,64

26,71

25,36

26,69

Hasil Pembelajaran ( )

( )

( )

( )

12

25,68

24,28

26,12

26,35

13

25,30

24,49

26,05

26,28

26,61

14

24,69

24,08

25,86

26,79

25,87

26,18

15

25,74

24,89

26,68

26,61

25,62

26,17

16

25,79

25,93

26,08

26,18

25,65

25,93

17

26,20

26,28

26,23

26,25

25,66

26,24

18

26,13

26,42

26,26

Output
Jaringan
(Y*)
26,83

1
2

26,17

25,32

25,95

25,09

26,24

26,33

25,12

24,55

25,95

26,41

Tabel 57 Hasil Pembelajaran Akhir TRD Model 4

X5

X4

X3

X2

X1

85,01

25,71

24,1

27,8

26,7

Target
Otput
(Y)
26,53

84,03

26,19

24,6

26,7

26,53

26,09

26,97

84,97

25,8

26,4

26,53

26,09

26,06

25,83

Variabel Input
Data ke-

84,79

26,25

27,8

26,09

26,06

26,25

25,96

84,09

25,81

26,7

26,06

26,25

26,6

26,63

80,56

24,5

26,53

26,25

26,6

25,45

25,54

77,48

23,64

26,09

26,6

25,45

24,7

24,69

74,08

24,1

26,06

25,45

24,7

24,58

25,45

73,53

24,6

26,25

24,7

24,58

25,01

25,13

174

X5

X4

X3

X2

X1

10

73,31

26,4

26,6

24,58

25,01

Target
Otput
(Y)
26,52

11

71,01

27,8

25,45

25,01

26,52

25,83

24,48

12

81,21

26,7

24,7

26,52

25,83

26,8

26,34

13

77,81

26,53

24,58

25,83

26,8

27,17

27,14

14

83,38

26,09

25,01

26,8

27,17

25,14

25,17

15

36,61

26,06

26,52

27,17

25,14

25,45

26,13

16

84,79

26,25

25,83

25,14

25,45

26,05

26,42

17

80,81

26,6

26,8

25,45

26,05

25,73

25,18

18

80,25

25,45

27,17

26,05

25,73

24,9

24,83

19

78,98

24,7

25,14

25,73

24,9

23,96

23,85

20

74,32

24,58

25,45

24,9

23,96

25,1

25,11

21

73,65

25,01

26,05

23,96

25,1

26,14

26,33

22

75,57

26,52

25,73

25,1

26,14

26,96

25,15

23

81,96

25,83

24,9

26,14

26,96

25,56

26,13

24

81,68

26,8

23,96

26,96

25,56

25,6

26,26

25

78,13

27,17

25,1

25,56

25,6

24,83

24,81

26

85,10

25,14

26,14

25,6

24,83

25,63

25,41

27

86,16

25,45

26,96

24,83

25,63

26,43

25,97

28

83,03

26,05

25,56

25,63

26,43

26,6

25,55

29

78,34

25,73

25,6

26,43

26,6

26,31

25,66

30

78,86

24,9

24,83

26,6

26,31

26,1

26,29

31

73,28

23,96

25,63

26,31

26,1

24,86

24,90

Variabel Input
Data ke-

Output
Jaringan
(Y*)
26,48

32

73,37

25,1

26,43

26,1

24,86

24,67

25,75

33

72,55

26,14

26,6

24,86

24,67

26,05

25,62

34

76,14

26,96

26,31

24,67

26,05

26,83

25,32

35

86,08

25,56

26,1

26,05

26,83

26,85

25,95

36

83,56

25,6

24,86

26,83

26,85

26,66

26,75

37

86,70

24,83

24,67

26,85

26,66

26,26

26,68

38

84,45

25,63

26,05

26,66

26,26

26,52

26,47

39

81,22

26,43

26,83

26,26

26,52

26,78

26,44

40

83,16

26,6

26,85

26,52

26,78

26,91

26,95

41

83,05

26,31

26,66

26,78

26,91

26,75

26,14

42

79,68

26,1

26,26

26,91

26,75

26,39

26,41

43

76,37

24,86

26,52

26,75

26,39

25,95

26,64

44

75,55

24,67

26,78

26,39

25,95

26,27

26,76

45

73,39

26,05

26,91

25,95

26,27

26,2

25,94

46

74,50

26,83

26,75

26,27

26,2

26,13

25,57

47

78,32

26,85

26,39

26,2

26,13

26,43

25,97

48

79,52

26,66

25,95

26,13

26,43

25,67

26,67

49

81,55

26,26

26,27

26,43

25,67

25,72

26,52

50

83,94

26,52

26,2

25,67

25,72

26,01

26,79

175

X5

X4

X3

X2

X1

51

82,97

26,78

26,13

25,72

26,01

Target
Otput
(Y)
25,8

52

83,32

26,91

26,43

26,01

25,8

25,91

26,33

53

85,30

26,75

25,67

25,8

25,91

26,11

26,62

54

82,30

26,39

25,72

25,91

26,11

25,48

25,48

55

81,34

25,95

26,01

26,11

25,48

24,95

25,02

56

78,17

26,27

25,8

25,48

24,95

25,67

26,01

Output
Jaringan
(Y*)
25,95

Variabel Input
Data ke-

Output
Jaringan
(Y*)
26,16

Tabel 58 Hasil Pembelajaran Akhir CHD Model 4

X5

X4

X3

X2

X1

82,98

26,20

25,91

24,95

25,67

Target
Otput
(Y)
26,24

82,50

26,13

26,11

25,67

26,24

27,10

27,19

83,23

26,43

25,48

26,24

27,10

26,40

26,65

84,83

25,67

24,95

27,10

26,40

26,38

26,25

83,88

25,72

25,67

26,40

26,38

25,97

26,64

81,83

26,01

26,24

26,38

25,97

26,05

26,35

84,57

25,80

27,10

25,97

26,05

25,21

25,27

84,92

25,91

26,40

26,05

25,21

25,10

25,87

82,14

26,11

26,38

25,21

25,10

25,00

26,15

10

75,85

25,48

25,97

25,10

25,00

24,20

25,26

11

75,87

24,95

26,05

25,00

24,20

22,90

23,32

12

67,26

25,67

25,21

24,20

22,90

25,34

22,58

Variabel Input
Data ke-

13

69,27

26,24

25,10

22,90

25,34

25,84

25,73

14

70,94

27,10

25,00

25,34

25,84

26,64

25,76

15

82,00

26,40

24,20

25,84

26,64

26,94

25,75

16

82,60

26,38

22,90

26,64

26,94

26,57

25,98

17

82,67

25,97

25,34

26,94

26,57

26,94

26,23

18

83,39

26,05

25,84

26,57

26,94

26,57

26,26

176

Lampiran 6
Output Minitab dan Perhitungan MAPE dan MSE

ARIMA Model (2,0,1): TRD Suhu Udara


Estimates at each iteration
Iteration
SSE
Parameters
0 28.6322 0.100
0.100
0.100
1 24.2721 0.250 -0.012
0.090
2 19.9354 0.373 -0.162 -0.029
3 18.9241 0.523 -0.231
0.032
4 18.1533 0.673 -0.318
0.066
5 17.9794 0.745 -0.369
0.054
6 17.9784 0.755 -0.375
0.058
7 17.9784 0.755 -0.375
0.058
8 17.9784 0.755 -0.375
0.058
9 17.9784 0.755 -0.375
0.058
Relative change in each estimate less than
Final Estimates of Parameters
Type
Coef SE Coef
T
AR
1
0.7552
0.3749
2.01
AR
2
-0.3750
0.2218
-1.69
MA
1
0.0576
0.4032
0.14
Constant 16.0770
0.0739 217.56
Mean
25.9382
0.1192

20.822
19.832
20.512
18.397
16.730
16.188
16.075
16.078
16.077
16.077
0.0010

P
0.049
0.097
0.887
0.000

Number of observations: 56
Residuals:
SS = 17.8791 (backforecasts excluded)
MS = 0.3438 DF = 52
Modified Box-Pierce (Ljung-Box) Chi-Square statistic
Lag
12
24
36
48
Chi-Square
7.1
25.1
31.7
38.6
DF
8
20
32
44
P-Value
0.524 0.199 0.481 0.701

ARIMA Model (2,0,0): TRD Suhu Udara


Estimates at each iteration
Iteration
SSE
Parameters
0 26.0754 0.100
0.100 20.822
1 22.5637 0.250 -0.010 19.770
2 20.0437 0.400 -0.121 18.734
3 18.5174 0.550 -0.232 17.713
4 17.9896 0.693 -0.339 16.761
5 17.9867 0.703 -0.348 16.706
6 17.9866 0.704 -0.348 16.704
7 17.9866 0.704 -0.348 16.704
Relative change in each estimate less than 0.0010
Final Estimates of Parameters
Type
Coef SE Coef
T
AR
1
0.7043
0.1290
5.46
AR
2
-0.3483
0.1314
-2.65
Constant 16.7035
0.0777 215.07
Mean
25.9382
0.1206

P
0.000
0.011
0.000

Number of observations: 56
Residuals:
SS = 17.8848 (backforecasts excluded)

177

MS =

0.3374

DF = 53

Modified Box-Pierce (Ljung-Box) Chi-Square statistic


Lag
12
24
36
48
Chi-Square
7.1
25.0
31.6
38.4
DF
9
21
33
45
P-Value
0.625 0.248 0.536 0.746

ARIMA Model (1,0,1): TRD Suhu Udara


Estimates at each iteration
Iteration
SSE
Parameters
0 28.4780 0.100
0.100 23.424
1 21.7539 0.250 -0.050 19.495
2 20.8264 0.156 -0.200 21.920
3 19.8265 0.088 -0.350 23.690
4 18.6933 0.104 -0.500 23.252
5 18.4854 0.224 -0.471 20.141
6 18.4842 0.225 -0.476 20.089
7 18.4842 0.226 -0.476 20.070
8 18.4842 0.226 -0.476 20.070
Relative change in each estimate less than 0.0010
Final Estimates of Parameters
Type
Coef SE Coef
T
AR
1
0.2262
0.2114
1.07
MA
1
-0.4758
0.1916
-2.48
Constant 20.0695
0.1161 172.87
Mean
25.9372
0.1500

P
0.289
0.016
0.000

Number of observations: 56
Residuals:
SS = 18.3689 (backforecasts excluded)
MS = 0.3466 DF = 53
Modified Box-Pierce (Ljung-Box) Chi-Square statistic
Lag
12
24
36
48
Chi-Square
11.0
30.0
37.1
42.8
DF
9
21
33
45
P-Value
0.275 0.093 0.286 0.564

ARIMA Model (0,0,1): TRD Suhu Udara


Estimates at each iteration
Iteration
SSE
Parameters
0 31.8123
0.100 26.027
1 26.9109 -0.050 26.012
2 23.3657 -0.200 25.999
3 20.8699 -0.350 25.985
4 19.3198 -0.500 25.968
5 18.9171 -0.648 25.939
6 18.8719 -0.611 25.935
7 18.8714 -0.616 25.935
8 18.8713 -0.615 25.935
9 18.8713 -0.615 25.935
Relative change in each estimate less than 0.0010
Final Estimates of Parameters
Type
Coef SE Coef
T
MA
1
-0.6150
0.1071
-5.74
Constant 25.9347
0.1268 204.61
Mean
25.9347
0.1268

P
0.000
0.000

Number of observations: 56
Residuals:
SS = 18.7514 (backforecasts excluded)
MS = 0.3472 DF = 54

178

Modified Box-Pierce (Ljung-Box) Chi-Square statistic


Lag
12
24
36
48
Chi-Square
11.2
30.7
37.5
42.4
DF
10
22
34
46
P-Value
0.343 0.103 0.313 0.623

ARIMA Model(1,0,0): TRD Suhu Udara


Estimates at each iteration
Iteration
SSE
Parameters
0 25.7525 0.100 23.424
1 22.6045 0.250 19.505
2 20.8025 0.400 15.587
3 20.3268 0.517 12.534
4 20.3240 0.525 12.317
5 20.3239 0.526 12.303
Relative change in each estimate less than 0.0010
Final Estimates of Parameters
Type
Coef SE Coef
T
AR
1
0.5256
0.1158
4.54
Constant 12.3033
0.0818 150.34
Mean
25.9335
0.1725

P
0.000
0.000

Number of observations: 56
Residuals:
SS = 20.2528 (backforecasts excluded)
MS = 0.3751 DF = 54
Modified Box-Pierce (Ljung-Box) Chi-Square statistic
Lag
12
24
36
48
Chi-Square
23.3
49.9
58.9
65.5
DF
10
22
34
46
P-Value
0.010 0.001 0.005 0.031

Tabel 59 Perhitungan MAPE dan MSE pada TRD Model ARIMA(0,0,1)

| |

0,01

( )

26,53

26,15

26,09

26,17

-0,0

0,08

0,00

0,01

26,06

25,89

0,17

0,17

0,01

0,03

26,25

26,04

0,21

,21

0,01

0,04

26,6

26,06

0,54

0,54

0,02

0,29

25,45

26,27

-0,82

0,82

0,03

0,66

24,7

25,43

-0,73

0,73

0,03

0,54

Bulan

Y*

0,38

0,38

0,15

24,58

25,48

-0,90

0,90

0,04

0,82

25,01

25,38

-0,37

0,37

0,01

0,14

10

26,52

25,71

0,81

0,81

0,03

0,66

11

25,83

26,43

-0,60

0,60

0,02

0,37

12

26,8

25,56

1,24

1,24

0,05

1,53

13

27,17

26,70

0,47

0,47

0,02

0,23

179

| |

0,04

( )

14

25,14

26,23

15

25,45

25,27

0,18

0,18

0,01

0,03

16

26,05

26,05

0,00

0,00

0,00

0,00

17

25,73

25,94

-0,21

0,21

0,01

0,04

18

24,9

25,81

-0,91

0,91

0,04

0,82

19

23,96

25,38

-1,42

1,42

0,06

2,01

20

25,1

25,06

0,04

0,04

0,00

0,00

21

26,14

25,96

0,18

0,18

0,01

0,03

22

26,96

26,05

0,91

0,91

0,03

0,83

23

25,56

26,50

-0,94

0,94

0,04

0,88

Bulan

Y*

-1,09

1,09

1,18

24

25,6

25,36

0,24

0,24

0,01

0,06

25

24,83

26,08

-1,25

1,25

0,05

1,57

26

25,63

25,16

0,47

0,47

0,02

0,22

27

26,43

26,22

0,21

0,21

0,01

0,04

28

26,6

26,06

0,54

0,54

0,02

0,29

29

26,31

26,26

0,05

0,05

0,00

0,00

30

26,1

25,96

0,14

0,14

0,01

0,02

31

24,86

26,02

-1,16

1,16

0,05

1,34

32

24,67

25,22

-0,55

0,55

0,02

0,30

33

26,05

25,60

0,45

0,45

0,02

0,21

34

26,83

26,21

0,62

0,62

0,02

0,38

35

26,85

26,31

0,54

0,54

0,02

0,29

36

26,66

26,26

0,40

0,40

0,01

0,16

37

26,26

26,18

0,08

0,08

0,00

0,01

38

26,52

25,99

0,53

0,53

0,02

0,29

39

26,78

26,26

0,52

0,52

0,02

0,27

40

26,91

26,25

0,66

0,66

0,02

0,43

41

26,75

26,34

0,41

0,41

0,02

0,17

42

26,39

26,19

0,20

0,20

0,01

0,04

43

25,95

26,06

-0,11

0,11

0,00

0,01

44

26,27

25,87

0,40

0,40

0,02

0,16

45

26,2

26,18

0,02

0,02

0,00

0,00

46

26,13

25,95

0,18

0,18

0,01

0,03

47

26,43

26,05

0,38

0,38

0,01

0,15

48

25,67

26,17

-0,50

0,50

0,02

0,25

49

25,72

25,63

0,09

0,09

0,00

0,01

50

26,01

25,99

0,02

0,02

0,00

0,00

51

25,8

25,95

-0,15

0,15

0,01

0,02

52

25,91

25,84

0,07

0,07

0,00

0,00

53

26,11

25,97

0,14

0,14

0,01

0,02

54

25,48

26,02

-0,54

0,54

0,02

0,29

180

| |

0,03

( )

0,01

0,02

Jumlah

0,980708

18,605204

Rata-rata

0,017831

0,3382764

55

24,95

25,60

56

25,67

25,53

0,14

Bulan

Y*

-0,65

|
0,65

0,14

0,43

Tabel 60 Perhitungan MAPE dan MSE pada CHD Model ARIMA(0,0,1)


| |

0,02

( )

0,04

0,96

0,01

0,00

0,00

0,53

0,5

0,02

0,28

-0,19

0,19

0,01

0,04

0,30

0, 0

0,01

0,09

26,03

-0,82

0,82

0,03

0,67

25,10

25,39

-0,29

0,29

0,01

0,08

25,00

25,69

-0,69

0,69

0,03

0,48

10

24,20

25,46

-1,26

1,26

0,05

1,59

11

22,90

25,14

-2,24

2,24

0,10

5,00

12

25,34

24,58

0,76

0,76

0,03

0,58

13

25,84

26,29

-0,45

0,45

0,02

0,20

14

26,64

25,60

1,04

1,04

0,04

1,08

15

26,94

26,45

0,49

0,49

0,02

0,24

16

26,57

26,14

0,43

0,43

0,02

0,19

17

26,94

26,10

0,84

0,84

0,03

0,70

18

26,57

26,33

0,24

0,24

0,01

0,06

Jumlah

0,457787

12,232189

Rata-rata

0,026929

0,7195405

25,77


0,47

| |

27,10

26,12

0,98

0,98

26,40

26,41

-0,01

26,38

25,85

25,97

26,16

26,05

25,75

25,21

26,24

2
3

Bulan

Y*

0,47

0,22

Tabel 61 Perhitungan MAPE dan MSE pada TRD Model ARIMA(2,0,0)


Bulan
1

26,53

26,18

Y*

0,35

| |
0,35

| |

0,01

( )
0,12

26,09

26,23

-0,14

0,14

0,01

0,02

26,06

25,84

0,22

0,22

0,01

0,05

26,25

25,97

0,28

0,28

0,01

0,08

26,6

26,12

0,48

0,48

0,02

0,23

25,45

26,30

-0,85

0,85

0,03

0,72

24,7

25,36

-0,66

0,66

0,03

0,44

181

| |

0,03

( )

0,02

0,16

0,76

0,03

0,58

-0,84

0,84

0,03

0,71

1,14

1,14

0,04

1,30

26,58

0,59

0,59

0,02

0,34

25,14

26,51

-1,37

1,37

0,05

1,86

15

25,45

24,95

0,50

0,50

0,02

0,25

16

26,05

25,87

0,18

0,18

0,01

0,03

17

25,73

26,19

-0,46

0,46

0,02

0,21

18

24,9

25,75

-0,85

0,85

0,03

0,73

19

23,96

25,28

-1,32

1,32

0,06

1,74

25,24


-0,66

| |

25,01

25,41

-0,40

0,40

10

26,52

25,76

0,76

11

25,83

26,67

12

26,8

25,66

13

27,17

14

24,58

Bulan

Y*

0,66

0,43

20

25,1

24,91

0,19

0,19

0,01

0,04

21

26,14

26,04

0,10

0,10

0,00

0,01

22

26,96

26,37

0,59

0,59

0,02

0,35

23

25,56

26,59

-1,03

1,03

0,04

1,06

24

25,6

25,32

0,28

0,28

0,01

0,08

25

24,83

25,83

-1,00

1,00

0,04

1,00

26

25,63

25,28

0,35

0,35

0,01

0,13

27

26,43

26,11

0,32

0,32

0,01

0,10

28

26,6

26,39

0,21

0,21

0,01

0,04

29

26,31

26,23

0,08

0,08

0,00

0,01

30

26,1

25,97

0,13

0,13

0,00

0,02

31

24,86

25,92

-1,06

1,06

0,04

1,13

32

24,67

25,12

-0,45

0,45

0,02

0,20

33

26,05

25,42

0,63

0,63

0,02

0,40

34

26,83

26,46

0,37

0,37

0,01

0,14

35

26,85

26,53

0,32

0,32

0,01

0,10

36

26,66

26,27

0,39

0,39

0,01

0,15

37

26,26

26,13

0,13

0,13

0,00

0,02

38

26,52

25,91

0,61

0,61

0,02

0,37

39

26,78

26,24

0,54

0,54

0,02

0,30

40

26,91

26,33

0,58

0,58

0,02

0,34

41

26,75

26,33

0,42

0,42

0,02

0,18

42

26,39

26,17

0,22

0,22

0,01

0,05

43

25,95

25,97

-0,02

0,02

0,00

0,00

44

26,27

25,79

0,48

0,48

0,02

0,23

45

26,2

26,17

0,03

0,03

0,00

0,00

46

26,13

26,01

0,12

0,12

0,00

0,02

47

26,43

25,98

0,45

0,45

0,02

0,20

48

25,67

26,22

-0,55

0,55

0,02

0,30

49

25,72

25,58

0,14

0,14

0,01

0,02

182

| |

0,01

( )

0,01

0,07

0,09

0,00

0,01

0,14

0,14

0,01

0,02

-0,59

0,59

0,02

0,35

-0,61

0,61

0,02

0,37

0,27

0,27

0,01

0,07

25,88


0,13

| |

25,8

26,06

-0,26

0,26

52

25,91

25,82

0,09

53

26,11

25,97

54

25,48

26,07

55

24,95

25,56

56

25,67

25,40

50

26,01

51

Bulan

Y*

0,13

0,02

Jumlah

0,996681

17,76025

Rata-rata

0,018121

0,3229136

Tabel 62 Perhitungan MAPE dan MSE pada CHD Model ARIMA(2,0,0)


| |

0,01

( )

0,03

0,89

0,40

0,02

0,16

0,20

0,20

0,01

0,04

26,23

-0,26

0,26

0,01

0,07

26,05

25,92

0,13

0,13

0,00

0,02

25,21

26,02

-0,81

0,81

0,03

0,65

25,10

25,37

-0,27

0,27

0,01

0,07

25,00

25,36

-0,36

0,36

0,01

0,13

10

24,20

25,29

-1,09

1,09

0,05

1,19

11

22,90

24,69

-1,79

1,79

0,08

3,19

12

25,34

23,76

1,58

1,58

0,06

2,49

13

25,84

25,75

0,09

0,09

0,00

0,01

14

26,64

25,92

0,72

0,72

0,03

0,53

15

26,94

26,48

0,46

0,46

0,02

0,21

16

26,57

26,64

-0,07

0,07

0,00

0,01

17

26,94

26,33

0,61

0,61

0,02

0,37

18

26,57

26,65

-0,08

0,08

0,00

0,01

Jumlah

0,390749

10,0303

Rata-rata

0,022985

0,590018

26,02


0,22

| |

27,10

26,16

0,94

0,94

26,40

26,80

-0,40

2 ,38

26,18

25,97

26,24

Bulan

Y*

183

0,22

0,05

184