Anda di halaman 1dari 35

Kuis

Kecerdasan

Disusun Oleh :
1. ALDY SYAHPUTRA HARAHAP (2055202061)
2. NANDA (2055202076)
3. RADEN GIAN RIZKI EP (2055202074)

Kelas :
TS-20-2

Dosen Pengampu :
DR. YENNI DESNELITA, M. KOM

Mata Kuliah :
Kecerdasan Buatan

INSTITUT BISNIS DAN TEKNOLOGI PELITA


INDONESIA 2022 / 2023
A. Neuron

1. Jaringan Syaraf Tiruan (JST)

Jaringan syaraf tiruan (Artificial Neural Network /ANN) adalah salah satu

metode dalam bidang kecerdasan buatan (Artificial Intelligence). JST berusaha untuk

meniru cara kerja otak manusia terutama dalam proses belajar. Agar menjadi lebih

cerdas maka manusia perlu belajar. Semakin banyak belajar maka otak manusia akan

semakin cerdas. Demikian juga JST perlu berlatih dan belajar sehingga menjadi cerdas.

Apabila JST yang sudah mengalami proses pelatihan tersebut diuji untuk mengenali

pola-pola tertentu seperti : sidik jari, wajah, kornea mata, suara, maka dia akan mampu

mengenalinya dengan baik.

Otak manusia terdiri dari 10 milyar sel syaraf (neuron) yang saling berhubungan

satu sama lain untuk memproses informasi. Gambar 2.1 memperlihatkan 2 buah neuron

pada otak manusia. Sebuah neuron secara garis besar terdiri dari 3 bagian yaitu : input,

proses, dan output.

Gambar 2.1 Susunan syaraf pada manusia

Denrit merupakan unit input yang berfungsi sebagai tempat masuknya sinyal. Inti sel

bertugas sebagai pemroses sinyal untuk diolah menjadi informasi. Sedangkan axon

berfungsi sebagai unit output untuk mengirim sinyal dari inti menuju denrit neuron

lainnya. Tampak dalam Gambar 2.1 sinyal yang keluar dari axon neuron 1 akan dikirim

ke denrit neuron 2. Hubungan antara axon neuron 1 dan denrit neuron 2 terkoneksi

lewat synapse. Agar sinyal dari neuron 1 dapat terkirim ke neuron 2 maka sinyal
tersebut harus memenuhi batasan atau nilai ambang tertentu (threshold). Keadaan

dimana 2 buah neuron saling berhubungan maka neuron tersebut dalam keadaan

teraktivasi. Hubungan antara 2 buah neuron terjadi secara adaptif yang artinya

hubungan itu terjadi secara dinamis. Dalam proses belajar maka otak selalu memiliki

kemampuan untuk beradaptasi sehingga menjadi lebih cerdas.

2. Komponen Jaringan Syaraf

Jaringan syaraf terdiri dari neuron-neuron yang saling berhubungan. Hubungan

antara neuron ini berfungsi untuk mentransformasikan informasi yang diterima lewat

unit input untuk dikirim ke unit keluaran dan menuju ke neuron yang lain. Hubungan

antar neuron ini dinyatakan dengan bobot (weight). Gambar 2.2 memperlihatkan

struktur neuron jaringan syaraf.

Gambar 2.2 Struktur neuron jaringan syaraf

Input berupa informasi akan dikirim neuron dengan nilai bobot kedatangan tertentu.

Informasi dari berbagai neuron ini akan dijumlahkan ( ∑ ). Hasil penjumlahan ini akan

dibandingkan dengan nilai ambang (threshold) tertentu dengan memakai fungsi aktivasi.

Fungsi aktivasi akan dibahas lebih lanjut di sub bab berikutnya. Jika hasil fungsi

aktivasi melewati nilai ambang tertentu maka neuron tersebut akan diaktifkan sedang

jika tidak maka neuron tersebut tidak akan diaktifkan. Neuron yang aktif akan

mengirimkan output melalui bobot ke neuron lainnya.


3. Metode Pembelajaran JST

Otak manusia agar menjadi cerdas maka perlu berlatih atau belajar. Demikian

juga JST perlu diberi pelatihan atau pembelajaran agar menjadi cerdas. Neuron-neuron

dalam JST saling berhubungan satu sama lain. Seberapa besar hubungan antara satu

neuron dengan neuron lainnya dinyatakan dengan bobot. Selama proses pembelajaran

nilai bobot ini akan berubah secara dinamis. Jika informasi diterima oleh sebuah neuron

dapat terkirim ke neuron tujuan maka nilai bobot yang menghubungkan kedua neuron

tersebut akan bertambah. Demikian sebaliknya jika informasi tidak terkirim maka nilai

bobot akan berkurang. Pada saat pelatihan maka sebuah JST diberikan data atau input

yang berbeda- beda sehingga nilai bobot akan terus mengalami perubahan sampai

tercapai nilai yang seimbang. Jika nilai ini sudah tercapai berarti semua input sudah

terhubung dengan target atau output yang diharapkan.

Metode pembelajaran pada JST secara garis besar terdiri dari dua bagian :

terawasi (supervised learning) dan tidak terawasi (unsupervised learning).

 Metode pembelajaran terawasi

Dalam metode pembelajaran terawasi maka target atau output yang diharapkan

sudah diketahui sebelumnya. Pola input akan diberikan pada neuron pada lapisan

input kemudian dirambatkan ke neuron lapisan berikutnya sampai lapisan output.

Lapisan output akan menghasilkan output yang akan dibandingkan dengan targetnya.

Jika terjadi perbedaan antara output dengan target maka masih terjadi error. Jika

perbedaan ini cukup besar berarti JST perlu diberikan pembelajaran lagi.

 Metode pembelajaran tidak terawasi

Dalam metode pembelajaran tidak terawasi tidak memerlukan target sehingga

kita tidak dapat menentukan hasil seperti apakah yang diharapkan selama proses

pembelajaran. Nilai bobot diatur dalam suatu range nilai tertentu tergantung dari nilai

input yang diberikan dan selanjutnya akan menghasilkan outputnya secara mandiri.

Metode ini biasanya sangat cocok dipakai untuk kasus pengelempokan pola (pattern

classification)
B. Konsep Dasar Jaringan Hebb

Perbedaan jaringan Hebb dan McCulloch – Pitts adalahdimana jaringan Hebb akan
melibatkan bias di dalam arsitektur jaringannya. Posisi bias sama dengan posisi unit input dan
langung terhubung ke unit output.
Pada jaringan Hebb, bobot dan bias akan dihitung secara iteratif. Dalam proses
pelatihannya, jaringan Hebb akan melakukan perubahan nilai bobot dan juga nilai bias.
Fungsi aktivasi yang digunakan pada jaringan Hebb adalah fungsi aktivasi threshold = 0.

Threshold

bias

Gambar 1. Arsitektur Jaringan Hebb

A. Pengenalan Pola dengan Jaringan Hebb


Adapun algoritma pelatihan jaringan Hebb adalahsebagai berikut :
1. Inisialisasi :
- Bobot awal = 0
- Bias awal = 0
2. Lakukan perubahan bobot dengan : ∆ w1 = x1 . t
3. Nilai bobot baru dapat diperoleh dengan :
bobot wi lama + ∆ wi

4. Lakukan perhitungan Net = ∑𝑖=1


𝑗
𝑤𝑖 . 𝑥𝑖 + b
1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 ≥ 0
5. Cari nilai f(net) = {
0 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 < 0
6. Buat kesimpulan apakah jaringan dapat melakukanpengenalan pola dengan baik atau tidak.
2. Contoh Soal :

1. Buatlah jaringan Hebb yang dapat mengenali fungsilogika “OR” (threshold = 0)


dengan input dan output biner :
Masukan
bias target
x1 x2
1 1 1 1
0 1 1 1
1 0 1 1
0 0 1 0

2. Buatlah jaringan Hebb yang dapat mengenali fungsi logika “OR” (threshold = 0) dengan
input dan output bipolar :
Masukan
bias target
x1 x2
1 1 1 1
-1 1 1 1
1 -1 1 1
-1 -1 1 -1

3. Penyelesaian Soal :

1. Input dan output biner :


 Proses pelatihan :
 Perubahan bobot dilakukan dengan : ∆ wi = xi . t

∆ w1 = x1 . t = 1.1 = 1
(lakukan sampai iterasi selesai)
 Nilai bobot baru : bobot wi lama + ∆ wi

x1 = bobot w1 lama + ∆ w1
=0+1=1
(lakukan sampai iterasi selesai)
Masukan Target Perubahan Bobot Bobot Baru
x x2 b t ∆ w1 ∆ w2 ∆b x1 x2 b
1

Inisialisasi 0 0 0
1 1 1 1 1.1 = 1 1.1 = 1 1.1 = 1 0+1 = 1 0+1 = 1 0+1 = 1
0 1 1 1 0.1 = 0 1.1 = 1 1.1 = 1 1+0 = 1 1+1 = 2 1+1 = 2
1 0 1 1 1.1 = 1 0.1 = 0 1.1 = 1 1+1 = 2 2+0 = 0 2+1 = 3
0 0 1 0 0.0 = 0 0.0 = 0 1.0 = 0 2+0 = 2 0+0 = 0 3+0 = 3

 Dari proses pelatihan, diperoleh bobot baru :w1 =


2 w2 = 0

b=3
 Proses perhitungan Net :

x1 x2 Net = ∑2 𝑤𝑖 . 𝑥𝑖 + b 1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 ≥ 0


𝑖=1 f(net) = {
0 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 < 0
1 1 1.2 + 1.0 + 3 = 5 1

0 1 0.2 + 1.0 + 3 = 3 1

1 0 1.2 + 0.0 + 3 = 5 1

0 0 0.2 + 0.0 + 3 = 3 1

 Dari hasil pelatihan, dapat dilihat bahwa hasil f(net) tidaksama dengan target awal yang
ingin dicapai. Dengan katalain dapat dikatakan bahwa jaringan Hebb dengan input dan
output biner ini tidak dapat mengenali pola fungsi logika “OR” dengan baik.
2. Input dan output bipolar :
 Proses Pelatihan :
Masukan Perubahan Bobot Bobot Baru
t
x1 x2 b ∆ w1 ∆ w2 ∆b x1 x2 b
Inisialisasi 0 0 0
1 1 1 1 1.1 = 1 1.1 = 1 1.1 = 1 1 1 1
-1 1 1 1 (-1).1= (-1) 1.1 = 1 1.1 = 1 0 2 2
1 -1 1 1 1.1 = 1 (-1).1 = (-1) 1.1 = 1 1 1 3
-1 -1 1 -1 (-1).(-1) = 1 (-1).(-1) = 1 1.(-1) = (-1) 2 2 2


Dari proses pelatihan, diperoleh bobot baru :w1 =
2 w2 = 2
b=2

Proses perhitungan Net :

x1 x2 Net = ∑2 𝑤𝑖 . 𝑥𝑖 + b 1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 ≥ 0


𝑖=1 f(net) = {−1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 < 0
1 1 1.2 + 1.2 + 2 = 6 1

-1 1 (-1).2 + 1.2 + 2 = 2 1

1 -1 1.2 + (-1).2 + 2 = 2 1

-1 -1 (-1).2 + (-1).2 + 2 = -2 -1

 Dari hasil pelatihan, dapat dilihat bahwa hasil f(net) samadengan target awal yang ingin
dicapai. Dengan kata lain dapat dikatakan bahwa jaringan Hebb dengan input dan output
bipolar ini dapat mengenali pola fungsi logika“OR” dengan baik.

4. Rangkuman :
1. Jaringan Hebb memiliki ciri-ciri unik, yaitu :
a. Adanya inputan berupa bias yang disertai denganbobot bias.
b. Dalam proses mengenali pola, jaringan Hebb akanmelakukan perubahan bobot dan
bias.
c. Inputan pada jaringan Hebb dapat berupa biner ( 0 atau1) maupun berupa bipolar ( -
1 atau 1)
d. Apabila target jaringan Hebb merupakan bipolar,maka fungsi aktivasi juga
mengikuti bipolar.
1 𝑗𝑖𝑘𝑎 𝑛𝑒𝑡 ≥ 0
−1 f(net) ={<0
𝑗𝑖𝑘𝑎 𝑛𝑒𝑡
2. Kesimpulan dari sebuah pelatihan dapat diambil dari mampu atau tidaknya sebuah
jaringan mengenali input yang diberikan, atau dengan kata lain hasil pelatihan = target.
3. Model Jaringan Perceptron

Model jaringan perceptron merupakan model yang paling baik pada saat ini. Model ini
ditemukan oleh Rosenblatt(1962) dan Minsky – Papert (1969).Perceptron terdiri dari suatu input
dan output. Perceptron merupakan bentuk paling sederhana dari JST yang biasanya digunakan
untuk pengklasifikasian jenis pola khusus yang biasa disebut linearlyseparable (pola-pola yang
terletak pada sisi yang berlawanan pada suatu bidang). Fungsi aktifasi yang digunakan algoritma
perceptron adalah fungsi hard limiting. Output unit akan bernilai 1 bila jumlahbobot input lebih
besar daripada threshold. Nilai threshold pada fungsiaktifasi adalah non-negatif [3].

A. Arsitektur perceptron

Output dari unit assosiator adalah binervektor. Vektor tersebut dikatakan sebagai sinyal input
terhadap sinyal output atauunit reponse. Oleh karena bobot-bobot dari assosiator ke unit output
diubah-ubah,maka yang akan diperhatikan hanya pada bagian later tersebut. Tujuan dari jaringan ini
adalah mengklasifikasikan setiap pola input dalam kelas tertentu. Apabilaoutputnya +1, maka input
yang diberikan termasuk kelas tertentu, sebaliknya jika outputnya -1, maka input yang diberikan
tidak masuk kelas tertentu. Arsitektur perceptron digambarkan seperti tampakpada gambar
berikut ini :

Gambar 2. Arsitektur perceptronsederhana [4]

Keterangan :
X1…xi…xn = neuron inputY = neuron output
B = bias W1,w2,wn = bobot

B. Pelatihan Perceptron
Bobot koneksi dari unit assosiator ke unit response (atau output) ditentukan melalui pelatihan
(learning rate) perceptron. Untuk setiap input training jaringan akan menghitung response dariunit
output, kemudian jaringan akan menentukan apakah suatu error terjadi pada pola tersebut dengan
cara membandingkan output hasil perhitungan dengan nilai targetnya. Jaringan tersebut akan
membedakan error antara output hasil perhitungan 0 dengan target -1 atau outputnya +1 dengan
target -1. Dalam kedua kasus tersebut tanda dari error menunjukkan bahwa bobot koneksi harus
diubah dalam arah yang dinyatakan oleh nilai target. Namun demikian hanya bobot-bobot pada
koneksi dari unitpengiriman sinyal dengan 0 ke unit outputyang akan disesuaikan nilainya, karena
hanya sinyal tersebut yang menambah error. Jika error tidak terjadi maka bobot- bobot tersebut
tidak akan diubah tetapi sebaliknya jika suatu error terjadi untuk pola input pelatihan tertentu,
bobot-bobot akan diubah menurut rumus :
Wi (new) = Wi (old) +  t XiKeterangan :
Xi = Input ke-i
T = target yang nilainya +1 atau -1
 = kecepatan belajar (learning rate) yaitu0 <   1
W = bobot
Jjika error terjadi, maka bobot-bobottidak akan berubah [4].

3. Algoritma Pelatihan
Perceptron Algoritma perceptron yang
digunakan memiliki langkah-langkah
sebagai berikut
:
• Inisialisasi semua bobot dan bias(biasanya =0)
• Set learning rate  (0 < 1). Untukpenyederhanaan set sama dengan
1.
• Set nilai threshold () untuk fungsiaktivasi.
• Untuk setiap pasangan pembelajaran s-t, kerjakan :
• Set aktivasi unit input Xi = Si ;

• Hitung respons untuk unit output :

y_in = b + ∑ Xi Wi
i

• Masukkan kedalam fungsi aktivasi :


1, jika yin > 
y = {0, jika −  y_in
−1, jika yin < −
• Bandingkan nilai output jaringan y dengan target t
Jika y  t, lakukan perubahan bobot dan bias dengan cara berikut :
Wi(baru) = wi(lama) + *t*xib(baru) = b(lama) + *t
Jika y = t, tidak ada perubahan bobot dan bias
Wi(baru) = wi(lama)b(baru) = b(lama)

• Lakukan iterasi terus menerus hingga semua pola memiliki output


jaringanyang sama dengan targetnya. Artinya bila semua output
jaringan sama dengan targetnya maka jaringan telah mengenali pola
dengan baik dan iterasi dihentikan [1].

4. Model Adaline dan Madaline pada kasus-kasus pengenalan pola


Adapun langkah-langkah pengenalan pola dengan jaringan Madaline, yaitu :
1. Tentukan nilai bobot dan bias dengan bilangan acak kecil.
2. Tentukan nilai 𝛼 dengan bilangan yang kecil
3. Tentukan nilai batas toleransi
4. Selama nilai perubahan bobot (∆w) > nilai batas toleransi, lakukan :
a. Hitung Net input untuk untuk setiap unit hidden layer

b. Hitung output setiap unit yang terdapat pada hidden layer dengan fungsi aktivasi bipolar :
c. Hitung keluaran jaringan dengan :

d. Hitung error dan lakukan perubahan bobot :


Jika y = t, maka bobot tidak diubah
Jika y ≠ t, maka :
1) Untuk t = 1, lakukan perubahan bobot terhadap unit z j yang z in nya dekat dengan
0 : bp baru = bp lama + α (1- zin_p)
wpi baru = wpi lama + α (1- zin_p) . xi

2) Untuk t = -1, lakukan perubahan bobot terhadap unit z k yang z in nya bernilai positif :
bk baru = bk lama + α (-1- zin_k)
wki baru = wki lama + α (-1- zin_k) . xi

Contoh Soal :
Lakukan pelatihan pengenalan pola fungsi logika OR dengan jaringan Madaline, menggunakan nilai
input dan output bipolar. Dimana : α = 0.5 , batas toleransi = 0.2 , bobot unit output Y (v1 = v2
= b = 0.5)

Penyelesaian Contoh Soal :


 Tabel kebenaran OR :

 Penentuan bobot dan bias secara acak :

 Arsitektur Jaringan :
 Langkah Pelatihan Pola 1 :
1) Input : x1 = 1 ; x2 = 1 ; t = 1
2) Bobot awal :

3) Net untuk unit pada hidden layer z1 dan z2


: zin_ 1 = x1 . w11 + x1 . w12 + b1
= 1 . 0.04 + 1 . 0.3 + 0.2 = 0.54
zin_ 2 = x2 . w21 + x2 . w22 + b2
= 1 . 0.2 + 1 . 0.1 + 0.7 = 1

4) Nilai keluaran unit hidden layer z1 dan z2 :


z1 = f(zin_1) = 1
z2 = f(zin_2) = 1

5) Output jaringan Y :
y_ in = z1 . v1 + z2 . w2 + b3
= 1 . (0.5) + 1 . (0.5) + 0.5 = 1.5
Maka :
y = f(y_ in) = 1
6) Analisa y dan t :
y = t  tidak dilakukan perubahan bobot

7) Pengecekan perubahan bobot


8) Dari tabel diatas, karena masih ada dua bobot (w12 dan b2) yang masih lebih besar dari batas
toleransi, maka iterasi berlanjut untuk pola 2.

 Langkah Pelatihan Pola 2 :


1) Input : x1 = -1 ; x2 = 1 ; t = 1
2) Bobot sebelumnya :

3) Net untuk unit pada hidden layer z1 dan z2 :


zin_ 1 = x1 . w11 + x1 . w12 + b1
= (-1) . 0.04 + (-1) . 0.3 + 0.2 = - 0.14
zin_ 2 = x2 . w21 + x2 . w22 + b2
= 1 . 0.2 + 1 . 0.1 + 0.7 = 1

4) Nilai keluaran unit hidden layer z1 dan z2 :


z1 = f(zin_1) = -1
z2 = f(zin_2) = 1

5) Output jaringan Y :
y_ in = z1 . v1 + z2 . w2 + b3
= (-1) . (0.5) + 1 . (0.5) + 0.5 = 0.5
Maka :
y = f(y_ in) = 1

6) y = t  tidak dilakukan perubahan bobot

7) Pengecekan perubahan bobot

8) Dari tabel diatas, karena masih ada dua bobot (w12 dan b2) yang masih lebih besar dari batas
toleransi, maka iterasi berlanjut untuk pola 3.

Setelah melanjutkan iterasi sampai pada pola 4, nilai output masih selalu sama dengan
target (y=t), sehingga bobot tidak berubah. Hasil pengecekan perubahan bobot setelah iterasi
pola ke 4 adalah sebagai berikut :
Dari tabel diatas, masih terlihat ada dua bobot (w12 dan b2) yang masih lebih besar dari
batas toleransi, maka iterasi berlanjut untuk pada epoch - 2.

5. Model Backpropagation pada kasus-kasus peramalan


BACKPROPAGATION PADA MODEL PERAMALAN PENJUALAN
JST Backpropagation merupakan salah satu algoritma yang sering digunakan dalam
menyelesaikan masalah yang rumit. Metode ini merupakan metode yang sangat baik
dalam menangani masalah pengenalan pola kompleks.
Prediksi dengan JST melibatkan dua langkah yaitu pelatihan dan langkah yang lain
adalah belajar. Pelatihan JST Backpropagation biasanya dilakukan dengan cara diawasi.
Keberhasilan pelatihan sangat dipengaruhi oleh penentuan input yang tepat.

Perambatan maju dimulai dengan memberikan pola masukan ke lapisan masukan.


Pola masukan merupakan nilai aktivasi tiap unit masukan. Dengan melakukan perambatan
maju, dihitung nilai aktivasi pada setia punit di lapisan berikutnya. Pada setiap lapisan, tiap
unit pengolah melakukan penjumlahan berbobot dan menerapkan fungsi sigmod untuk
menghitung keluarannya.
Vji adalah bobot garis dari unit masukan x i ke unit lapis tersembunyi zj (vjbmerupakan
bobot garis yang menghubungkan unit tersembunyi zj). wkjmerupakan bobot dari unit
lapis tersembunyi zj ke unit keluaran yk.
Dalam algorima Backpropagation, input dilewatkan melalui lapisan – lapisan sampai
hasil akhir dihitung, dan dibandingkan dengan output nyata untuk menemukan kesalahan.
Kesalahan ini kemudian disebarkan kembali ke input untuk menyesuaikan bobot dalam
setiap lapisan. Untuk mempercepat proses belajar, ada dua parameter dari algoritma
Backpropagation yang disesuaikan yaitu : laju pembelajaran dan momentum.
Dalam penelitian ini, digunakan jaringan Backpropagation sepenuhnya terhubung
dan dilatih. Jaringan terdiri dari lapisan input yang mewakili data input ke jaringan, hidden layer
dan lapisan output yang mewakili respon dari jaringan. Tiap lapisan terdiri dari sejumlah
neuron, setiap neuron terhubung ke neuron lain dari lapisan sebelumnya dan
mengadaptasikan bobot w dan bias b.

Untuk menghitung nilai penjumlahan berbobot digunakan rumus persamaan :


𝑆𝑗=(𝑥+𝑎)𝑛=∑𝑎𝑖𝑤𝑗𝑖
𝑤𝑗𝑖= bobot sambungan dari unit.
𝑎𝑖= masukan yang berasal dari unit i.

Setelah nilai 𝑆𝑗 dihitung, fungsi sigmoid diterapkan pada 𝑆𝑗 untuk membentuk f


(𝑆𝑗). Fungsi sigmoid mempunyai persamaanseperti berikut :
𝑓(𝑆𝑗)=1/1+𝑒−𝑠𝑗
Algoritma pelatihan jaringan dengan satu lapis tersembunyi, Seperti langkah berikut:
1. Fase I Algoritma Backpropagation
Langkah 0 : Inisialisasi semua bobot denganbilangan acak kecil.
Langkah 1: Jika kondisi penghentian belum terpenuhi lakukan langkah 2 –8.

2. Fase II Forward Propagation


Langkah 2 : Setiap pasang data pelatihan Terlebih dahulu melakukan langkah 3-8.
𝑧_𝑖𝑛𝑗=𝑣0𝑗+∑𝑥𝑛𝑖=1𝑖𝑣𝑖𝑗

Langkah 3 : Tiap unit input menerima sinyal dan meneruskannya ke dalam unit tersembunyi diatasnya.
𝑧𝑖=𝑓(𝑧_𝑖𝑛𝑗)

Langkah 4 : Fungsi aktivasi yang biasa digunakan yaitu fungsi sigmoid, kemudian mengirimkan sinyal
tersebut kesemua unit output.

Langkah 5 : Hitung semua output jaringan diunit yk (k = 1, 2,., m)


𝑦_𝑖𝑛𝑘=𝑤0𝑘+∑𝑧𝑝𝑖=1𝑗𝑤𝑗𝑘

Langkah 6 : Hitung faktor δ unit keluar berdasarkan kesalahan disetiap unitkeluaran yk (k = 1,2,
..., m)
𝑦𝑘=𝑓(𝑦𝑖𝑛𝑘)

3. Fase III Backpropagation


Langkah 7 : Hitung faktor δ unit tersembunyi berdasarkan kesalahan di setiap unit tersembunyi
zj (j = 1, 2, ..p)
𝛿𝑘=(𝑡𝑘−𝑦𝑘)𝑓(𝑦_𝑖𝑛𝑘)

Langkah 8 : Hitung semua perubahan bobot Perubahan bobot garis yang menuju ke unit keluaran:
- F’ adalah turunan dari aktivasi, kemudian hitung koreksi bobot.
∆𝑤𝑗𝑘=𝑎𝛿𝑗𝑧𝑗
- Menghitung koreksi bias
∆𝑤0𝑗=𝑎𝛿𝑘
- Mengirimkan ke unit-unit yang ada dilapisan paling tersembunyi
(𝑦𝑖,𝑖=1,2,3,. . .,𝑝)menjumlahkan data input-inputnya (dari unit-unit yang berada pada lapisan
yang di kanannya)
𝛿_𝑖𝑛𝑗=∑𝛿𝑘𝑤𝑗𝑘
- Menghitung informasi error, dikalikan dengan dari fungsi aktivasinya
𝛿𝑗=𝛿_𝑖𝑛𝑗𝑓(𝑧−𝑖𝑛𝑗)
- Hitung koreksi bobot
∆𝑣𝑗𝑘=𝑎𝛿𝑗𝑥𝑖
- Lalu hitung juga koreksi bias
∆𝑣𝑗𝑘=𝑎𝛿𝑗
Langkah 9: Selesai.

6. Model Jaringan Kompetisi Berbobot Tetap pada kasus-kasus pengenalan pola


JARINGAN KOMPETISI
 Jaringan yang menggunakan pembelajaran tak terawasi
 Neuron dalam jaringan dipaksa berkompetisi, sehingga hanya satu neuron yang aktif
(sinyal keluaran > 0). Prinsip tersebut biasa dikenal dengan prinsip winner takes all
 Jaringan kompetisi berbobot tetap, menggunakan nilai bobot yang tidak berubah. Sedangkan
nilai yang berubah dalam jaringan adalah nilai dari masing-masing neuron yang terdapat dalam
jaringan
 Suatu neuron akan ‘dinobatkan ‘ menjadi pemenang jika nilai fungsi aktivasinya lebih dari
nol. Dan ketika ada beberapa neuron yang memiliki nilai fungsi aktivasi lebih dari nol, maka
iterasi/epoch akan dilanjutkan hingga menyisakan satu neuron saja.

JARINGAN KOMPETISI MODEL MAXNET


 Model yang menggunakan konsep dasar kompetisi
 Bobot dibuat tetap. Tidak ada proses pelatihan.
 Dapat dipakai pada model jaringan lain untuk menentukan neuron dengan masukan terbesar
 Jaringan terdiri dari m-titik yang saling berhubungan dengan bobot simetris (sama)
 Bobot antar neuron diberikan nilai –ε (0 < ε < 1/𝑚) dan bobot ke neuron itu sendiri diberikan
nilai 1
 Fungsi aktivasi :
𝑓 𝑥 = 𝑥 ;𝑗𝑖𝑘𝑎 𝑥 > 0
𝑓 𝑥 = 0 ;𝑗𝑖𝑘𝑎 𝑥 ≤ 0

 Inisialisasi є dengan bilangan 0 < є < 1/ m


 Inisialisasi bobot wij
 Selama terdapat lebih dari 1 unit yang fungsi aktivasi > 0, lakukan :
 Modifikasi aktivasi titik aj (j=1, 2, … m) dengan persamaan :

JARINGAN KOMPETISI MODEL TOPI MEKSIKO


- Dinamakan jaringan topi meksiko, dikarenakan hasil iterasi yang dihasilkan berbentuk
meruncing seperti topi orang meksiko
- Mempunyai dua konstanta R1 dan R2 yang menyatakan jari-jari neuron yang menguatkan
(dengan bobot positif) dan melemahkan (dengan bobot negatif) sinyal keluaran.
- Setiap neuro dihubungkan dengan neuron lain yang berjarak R1 dari neuron asal (termasuk ke
neuron itu sendiri) dengan bobot positif dan dihubungkan dengan neuro berjarak R (R1< R ≤ R2)
dari neuron asal dengan bobot negatif
- Selama iterasi, jaringan akan menyeleksi neuron dengan masukan maksimum beserta neuron
yang berada di sekitarnya
- Banyaknya iterasi/epoch berhubungan dengan jari-jari neuron terkuat (masukan terbesar)
- Iterasi/epoch banyak, maka neuron yang terpilih semakin sedikit

- Inisialisasi R1 dan R2 dan tmax (jml iterasi maksimal)


- Inisialisasi bobot

- Inisialisasi xi=0 (i=1,2, …,n), t=0


- Selama t<max, lakukan :
o Hitung net masukan
x i =c1Σ x i+k(lama) + c2 Σx i+k(lama) + c2 Σx i+k(lama)
x_max= max(x i)
o Hitung fungsi aktivasi
x i=min(x_max,max(0,x i))
o Melanjutkan ke iterasi/epoch berikutnya
t = t +1
Metode
Penelitian
Analisis
Cluster
Analisis cluster merupakan teknik multivariat yang mempunyai tujuan utama
untuk mengelompokkan objek-objek berdasarkan karakteristik yang dimilikinya. Analisis
cluster mengklasifikasi objek sehingga setiap objek yang paling dekat kesamaannya
dengan objek lain berada dalam cluster yang sama. Cluster-cluster yang terbentuk
memiliki homogenitas internal yang tinggi dan heterogenitas eksternal yang tinggi. Ada
beberapa metode pembentukan cluster . Salah satu metode tersebut misalnya metode
linkage. Metode linkage terdiri dari single linkage, complete linkage dan average linkage.
1. Pautan Tunggal (Single Linkage)
Metode ini didasarkan pada jarak minimum. Dimulai dengan dua objek yang
dipisahkan dengan jarak paling pendek maka keduanya akan ditempatkan pada cluster
pertama, dan seterusnya. Metode ini dikenal pula dengan nama pendekatan tetangga
terdekat.
2. Pautan Lengkap (Complete Linkage)
Disebut juga pendekatan tetangga terjauh. Dasarnya adalah jarak maksimum. Dalam
metode ini seluruh objek dalam suatu cluster dikaitkan satu sama lain pada suatu jarak
maksimuma atau dengan kesamaan minimum.
3. Pautan Rata-rata (Average Linkage)
Dasarnya adalah jarak rata-rata antar observasi. pengelompokan dimulai dari tengan
atau pasangan observasi dengan jarak paling mendekati jarak rata-rata.
Jaringan Kohonen
Jaringan kohonen termasuk dalam pembelajaran tak terawasi (unsupervised
learning). Jaringan ini pertama kali diperkenalkan oleh Teuvo Kohonen (1981). Pada
jaringan kohonen, suatu lapisan yang berisi neuron-neuron akan menyusun dirinya sendiri
berdasarkan input nilai tertentu dalam suatu kelompok yang dikenal dengan istilah
cluster.
Gambar 1. Arsitektur Jaringan Kohonen

Jaringan kohonen dapat mengenali dan mengklasifikasikan pola-pola dengan


melakukan pelatihan (training) dari pola-pola vektor input (masukan) data dengan
vektor bobot sebagai penghubung antara layar masukan dan layar kompetisi dalam
proses pelatihan. Algoritma pembelajaran tanpa supervise pada jaringan kohonen
untuk diterapkan dalam pengelompokan data (clustering data) dapat dituliskan sebagai
berikut
:
1. Tetapkan jumlah variabel (m), jumlah data (n), jumlah cluster (K)
2. Inisialisasi :
a. Bobot input (𝑤𝑖𝑗)

𝑤𝑖𝑗 𝑀𝑖𝑛 𝑃𝑖 + 𝑀𝑎𝑥𝑃𝑖


= 2
(1)
Dengan
𝑤𝑖𝑗 = bobot antara variabel input ke-j dengan neuron pada kelas ke-
i.Min𝑃𝑖 = nilai minimum pada variabel input ke-i
Max𝑃𝑖 = nilai maksimum dari variabel input ke-i
b. Bobot bias 𝑏𝑖 1
[1−ln( )]
𝑏𝑖 = 𝑒 𝐾 (2)
𝑏𝑖 = bobot bias neuron
ke-iK = jumlah neuron
target
c. Set parameter learning rate (α)
d. Set maksimum epoch (MaxEpoch)
e. Set Epoch = 0
Kerjakan jika Epoch < MaxEpoch
 Epoch = Epoch + 1
 Pilih data secara acak, misalnya data terpilih ke-z
 Cari jarak antara data ke-z dengan tiap bobot input ke-i (𝐷𝑖) :
𝐷𝑖 = √∑𝑚 (𝑤𝑖𝑗 −
𝑃𝑧𝑗)2 (3)
𝑗=1

Penjumlahan negative jarak plus bobot bias (ai) :


Ai = -Di + bi (4)
Mencari ai terbesar :
i. MaxA = max(ai), dengan i = 1,2,…K
ii. Idx = 1, sedemikian hingga ai = MAxA
f. Set output neuron ke-I (𝑦𝑖) :
y(i) =1 ;jika i=idx
y(i) = 0 ; jika i ≠ idx
g. Update bobot yang menuju ke neuron idx:
𝑤𝑏𝑎𝑟𝑢 = 𝑤𝑙𝑎𝑚𝑎 + 𝛼(𝑥𝑖 − 𝑤𝑙𝑎𝑚𝑎 ) (5)
𝑖𝑗 𝑖𝑗 𝑖𝑗

W(idx,j) = w(idx,j) + p((z,j) – w(idx,j))


h. Update bobot bias :
c (i) = (1 – α) 𝑒(1−ln 𝑏(𝑖)) + α a b(i) = 𝑒(1−ln 𝑐(𝑖))
(6
)proses pembelajaran akan berlangsung terus hingga mencapai maksimum
epoch.

Sumber Data
Data yang digunakan untuk penulisan ini merupakan data sekunder yaitu data
pendapatan daerah provinsi Jawa Tengah Tahun 2010-2012 yang bersumber dari
publikasi yang disampaikan oleh BPS Jawa Tengah dengan judul Statistik Keuangan
Pemerintah Provinsi danKabupaten Kota Jawa Tengah
Hasil dan Diskusi
Bobot input awal
Bobot input diperoleh dari titik tengah nilai minimum dan maksimum input, yaitu
𝑤𝑖𝑗 𝑀𝑖𝑛 𝑃𝑖 + 𝑀𝑎𝑥𝑃𝑖
= 2
Berdasarkan pada rumus diatas maka dapat dicari bobot input awal untuk data
permasalahanyaitu sebagai berikut :
a. Baris ke-1
Nilai minimum : 6960314
Nilai maksimum :
327992259Maka nilai
tengahnya yaitu
𝑤𝑖𝑗 6960314+327992259
= 2 = 167476286.5
b. Baris ke-2

Nilai minimum : 60.21770


Nilai maksimum :
522925031Maka nilai
tengahnya yaitu
𝑤𝑖𝑗 60217700+522925031
= 2 = 264473401
c. Baris ke-3

Nilai minimum : 12727590


Nilai maksimum :
786563412Maka nilai
tengahnya yaitu
𝑤𝑖𝑗 12727590+786563412
= 2 = 399645501
Selengkapnya dapat dilihat pada Tabel 1.

Tabel 1. Nilai bobot input awal

3.9965
3.9965
3.9965
1.6748 2.6447 3.9965

Bobot bias awal


Bobot bias awal dapat dicari dengan menggunakan rumus yaitu :
1
[1−ln( )]
𝑏𝑖 = 𝑒 𝐾

Berdasarkan rumus diatas maka bobot bias awal data permaslahan tersebut yaitu
[1−ln(1)]
𝑏(𝑖) = 𝑒 3

= 8.1548
Sehingga diperoleh bobot bias yang dapat selengkapnya dilihat di tabel 2.
Tabel 2. Nilai bobot bias

8.1548
8.1548
8.1548

Pengelompokan vektor
(3,1) artinya kabupaten 1 masuk kedalam cluster 3, (3,2) artinya kabupaten 2 masuk
kedalam
klaster 3, (1,3) artinya kabupaten 3 masuk kedalam klaster 1, (1,4) artinya kabupaten 4
masuk
kedalam klaster 1, (1,5) artinya kabupaten 5 masuk kedalam klaster 1, (1,6) artinya
kabupaten
6 masuk kedalam klaster 1, (1,7) artinya kabupaten 7 masuk kedalam klaster 1, (1,8)
artinya
kabupaten 8 masuk kedalam klaster 1, (1,9) artinya kabupaten 9 masuk kedalam klaster
1,
(1,10) artinya kabupaten 10 masuk kedalam klaster 1, (1,11) artinya kabupaten 1
masuk
kedalam klaster 1, (1,12) artinya kabupaten 12 masuk kedalam klaster 1, (1,13)
artinya
kabupaten 13 masuk kedalam klaster 1, (1,14) artinya kabupaten 14 masuk kedalam klaster
1,
(1,15) artinya kabupaten 15 masuk kedalam klaster 1, (1,16) artinya kabupaten 16
masuk
kedalam klaster 1, (1,17) artinya kabupaten 17 masuk kedalam klaster 1,(3,18)
artinya
kabupaten 18 masuk kedalam klaster 3, (1,19) artinya kabupaten 19 masuk kedalam klaster
1,
(1,20) artinya kabupaten 20 masuk kedalam klaster 1, (1,21) artinya kabupaten 21
masuk
kedalam klaster 1, (1,22) artinya kabupaten 22 masuk kedalam klaster 1, (1,23)
artinya
kabupaten 23 masuk kedalam klaster 1, (1,24) artinya kabupaten 24 masuk kedalam klaster
1,
(1,25) artinya kabupaten 25 masuk kedalam klaster 1,(1,26) artinya kabupaten 26
masuk
kedalam klaster 1, (1,27) artinya kabupaten 27 masuk kedalam klaster 1, (1,28)
artinya
kabupaten 28 masuk kedalam klaster 1, (1,29) artinya kabupaten 29 masuk kedalam klaster
1,
(1,30) artinya kabupaten 30 masuk kedalam klaster 1, (3,31) artinya kabupaten 31
masuk
kedalam klaster 3, (1,32) artinya kabupaten 32 masuk kedalam klaster 1, (2,33)
artinya
kabupaten 33 masuk kedalam klaster 2, (1,34) artinya kabupaten 34 masuk kedalam klaster
1,
(3,35) artinya kabupaten 35 masuk kedalam klaster 3.

Adapun kode kabupaten/ kota di Provinsi Jawa Tengah yang digunakan adalah sebagai
berikut
:
Cilacap (Kode 1), Banyumas (Kode 2), Purbalingga (Kode 3), Banjarnegara (Kode
4),
Kebumen (Kode 5), Purworejo (Kode 6), Wonosobo (Kode 7), Magelang (Kode 8),
Boyolali
(Kode 9), Klaten (Kode 10), Sukoharjo (Kode 11), Wonogiri (Kode 12), Karanganyar
(Kode
13), Sragen (Kode 14), Grobogan (Kode 15), Blora (Kode 16), Rembang (Kode 17),
Pati
(Kode 18), Kudus (Kode 19), Jepara (Kode 20), Demak (Kode 21), Semarang (Kode
22),
Temanggung (Kode 23), Kendal (Kode 24), Batang (Kode 25), Pekalongan (Kode 26),
Pemalang (Kode 27), Tegal (Kode 28), Brebes (Kode 29), Kota Magelang (Kode 30),
Kota Surakarta (Kode 31), Kota Salatiga (Kode 32), Kota Semarang (Kode 33), Kota
Pekalongan (Kode 34), Kota Tegal (Kode 35).
Tabel 3. Pengelompokan Vektor
Sehingga berdasarkan pengclusteran yang telah dilakukan maka diperoleh clustering
data sebagai berikut :
Tabel 4. Kluster
Cluster
Kabupaten Ke-
ke
1 3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,19,20,21,22,23,24,25,26,27,28,29,30,32,34
2 33
3 1,2,18,31,35

Jarak antar Cluster


Jarak antar cluster merupakan jarak dari bobot pada masing- masing cluster. Dari
hasil yang telah diperoleh, dapat dilihat bahwa terdapat heterogenitas yang tidak
terlalu tinggi antar cluster (dilihat dari nilai jarak antar cluster yang relatif kecil ).
Untuk jarak antar cluster yang terkecil yaitu cluster 3 dengan cluster 1, maka dapat
dikatakan cluster 3 dengan cluster 1 mempunyai kesamaan yang lebih besar
dibandingkan dengan yang lainnya. Untuk selengkapnya dapat dilihat di tabel 5.
Tabel 5. Jarak antar cluster
CLUSTER 1 CLUSTER 2 CLUSTER 3
CLUSTER 1 0 8.9589 6.9512
CLUSTER 2 8.9589 0 9.2645
CLUSTER 3 6.9512 9.2645 0

Jaringan Syaraf Tiruan


Jaringan syaraf tiruan adalah suatu metode komputasi yang meniru sistem jaringan
syaraf biologis di dalam otak. Jaringan syaraf tiruanmerupakan salah satu dari
representasi buatan dari otak manusia yang mencobamenstimulasikan
prosespembelajaran pada otak manusiatersebut. Metode ini
menggunakan elemen perhitungan non-linear dasaryang disebut neuron yang
diorganisasikan sebagai jaringanyang saling berhubungan, sehingga mirip dengan
jaringan syaraf manusia.
Fungsi Aktivasi

1. Fungsi Sigmoid Biner


Fungsi ini digunakan untuk jaringan syaraf tiruan yang dilatih dengan
menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai
range 0 sampai
1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang
membutuhkan nilai output yang terletak pada interval 0 sampai
1. Namun, fungsi ini bisa jugadigunakan oleh jaringan syaraf
yang nilai outputnya 0 atau 1. Fungsi sigmoid biner dirumuskan sebagai:
y = f(x) = 1 1+𝑒−𝜎𝑥

f’(x) = σf(x)[1-f(x)] 2.1.4 Metode Backpropagation

Jaringan syaraf tiruan metode backpropagation terdiri dari banyaklapisan, yaitu :


1. Lapisan input (1 buah), lapisan input terdiri dari neuron-neuronatau input-input,
mulai dari unitinput X1 sampai unit input Xn.
2. Lapisan tersembunyi (minimal 1), lapisan tersembunyi terdiri dari unit-unit
tersembunyi mulai dari unit tersembunyi Z1 sampai unit tersembunyi Zp.
3. Lapisan Output (1 buah), lapisan output terdiri dari unit- unit output mulai dari
unit output Y1 sampai unit outputYm.
Layer Output

Layer Tersembunyi

Gambar 2.4 Layer-layer pada


backpropagation

Backpropagation ini merupakan salah satu algoritma yang sering digunakan dalam
menyelesaikan masalah-masalah yang panjang dan rumit. Metode backpropagation
menerapkan algoritmapembelajaran yang terawasi. Pada jaringan ini diberikan
sepasang pola yang terdiri atas pola masukan dan pola yang diinginkan. Suatu pola
akan diubah
– ubah untuk mendapatkan perbedaan yang tipis antara pola yang dimasukkan dan pola
yang diinginkan.

Pelatihan Jaringan Syaraf Tiruan


Pada program yang dibuat ini, keluaran yang dihasilkan berupa kode dari penyakit, dimana
kode penyakit berupa 3 buah node, yaitu Y1,Y2 dan Y3. Untuk mendapatkan 3 buah node
tersebut, maka proses dilakukan 3 kali, dengan data masukan yang sama dankeluaran yang
telah ditentukan sebagai Y1, Y2, dan Y3.
Untuk mendapatkan nilai keluaran pada program, yang pertama harus dilakukan adalah
menentukan matriks masukan dan matriks target. Selanjutnya menentukan formula dari
jaringan syaraf tiruan dari feedforward
dengan cara mengatur fungsi aktivasiantara masukan ke lapisan tersembunyi
dengan menggunakan logsig (sigmoidbiner) dan fungsi aktivasi dari lapisan
tersembunyi ke keluaran sistem menggunakan metode logsig (sigmoidbiner).
Kemudian dimasukkan ke dalamprogram dalam bentuk:

%membangun jaringan
syaraf feedforward
net = newff(minmax(p),[12
12 1],{'logsig' 'logsig'
'purelin'}, 'traingdx');
Menentukan jumlah maksimum Epoch sangat berpengaruh terhadap kerja pada
pelatihan. Nilai epoch pada penelitian ini adalah 30.000 yang kemudian
dimasukkan kedalam coding MATLABdengan bentuk :
%set max epoch
net.trainParam.epochs=50000;
%maksimum epoch

Selanjutnya adalah menentukan nilai target error yang menjadi nilai ukur untuk
pemberhetian suatu proses pelatihan, dimana proses pelatihan akanberhenti jika
telah memenuhi target error yaitu 0,0001, di dalam MATLAB akan dimasukkan
berupa:

%set goal
net.trainParam.goal=0.0001;
%target error

Menentukan nilai learning rate agar proses dapat menjadi lebih cepat. Pada program
ini nilai learning rateditentukan sebesar 0,1, di dalam MATLAB akan dimasukkan
dengan bentuk:

%set learning rate


net.trainParam.lr=0.1;
%learning rate

Selanjutnya adalah menentukan nilai momentum, dimana nilai momentum ini berfungsi
untuk menyesuaikan nilai bobot yang lebih besar selama proses koreksi bobot, agar bobot
dapat menyesuaikan dengan pola matriks masukan dan target yang ada. Setelah dilakukan
beberapa percobaan penelitian untuk nilai momnentum, didapat nilai 0,9 sebagai nilai
momentum terbaik, kemudian nilai momentum ini dimasukkan kedalamMATLAB dengan
bentuk:

%set momentum
net.trainParam.mc=0.9;
%momentum

Selanjutnya adalah melakukanpelatihanBackpropagation dan mensimulasikan hasil dari


pelatihan,dimana pada tahap ini dilakukan codi untuk melakukan pelatih backpropagation
dan coding unt mensimulasikan hasil pelatihan dalam perangkat lunak MATLA
Coding tersebut akan ditulis dala bentuk:

%melakukan pelatihan Y
dan simulasi
3
net=train(net, p, t);
%melakukan pelatihan terhadap
input dan target
a= sim(net,p); %melakukan
simulasi hasil pelatihan

Selanjutnya adalah menghitung MSE antara Target dan Hasil keluarandengan memasukkan
data coding untuk menghitung MSE antara target dankeluaran. Coding tersebut ditulis dalam
bentuk :
%melakukan simulasi
H= a-t; %koding
untuk
menampilkan nilai MSE
ke windows result

%menghitung MSE antara


target dan keluaran
MSE = mse(H);
fprintf('MSE_train=%12.8f\n',

Selanjutnya setelah semua program MSE_train m


Keluara Max Target Learnin
dimasukkan,
n Iterasi Error g Rate
maka proses selanjutnya adalah
menjalankan program, dan selanjutnya
akan muncul hasilnya pada window BY. 29638 0,0001 0,1 0,0000999 0,9994
1
result. Pada pelatihan yang dilakukan m
pada MATLAB didapat hasil yang Y2 15649 0,0001 0,1 0,00009998 0,9995
dapat dilihat pada tabel 5.1 dibawah. Y3 13407 0,0001 0,1 0,00009991 0,9994
Dimana pada proses pelatihan jaringan
syaraf tiruan ini akan berhenti jika
iterasi telah sampai pada batas
maksimum yaitu
30.000 iterasi, atau pelatihan akan
berhenti jika nilai MSE (Mean
Square Error) telah berada dibawah
target error, disini diketahui target
erronya sebesar 0,0001. Pada tabel
5.1 dibawahdapat dilihat hasil
keluaran yang diperloeh untuk 3 node
keluaran hampirsama dengan terget
yang diinginkan.

Implementasi JST Kedalam Program Aplikasi


Setelah rancangan JST dibuat, selanjutnya JST untuk memprediksi penyakit saluran
pernafasan ini diimplimentasikan kedalam sebuah program aplikasi. Pada tahap
implementasi dan pengujian ini, akanditampilkan perancangan antarmukabeserta
fasilitas dan tombol-tombol yang terdapat pada antarmuka aplikasi tersebut.

Tampilan Aplikasi
Aplikasi yang dibuat ini terdiri dari 2 buah form, form 1 sebagai tampilan awal, dan form 2
sebagai tampilan utama aplikasi. Gambar 5.1 dibawah iniadalah tampilan utama aplikasi

Pengujian Aplikasi
Pada proses pengujian ini,
menggunakan algoritma feedforward.
Untuk input yang digunakan adalah
berupa data periksa dari pasien
berdasarkan dari gejala-gejala penyakit
dari pasien. Dimana pada pengisian
gejala penyakit yang berjumlah 12 Peng Target Keluaran Hasil
buah, nilai dari variabel penyakit ujian keluaran
tersebut akan terbaca pada pola ke-
masukan X1 sampai X12. 1 000 000 Benar
Kemudian hasil dari prediksian
tersebutselanjutnya akan
dibandingkan dengan nilai ambang
atau threshold Ө = 0,5 , sehingga
dapat menghasilkan
2 000 000 Benar
3 000 000 Benar
4 000 110 Salah
5 000 000 Benar
6 000 000 Benar
7 000 000 Benar
8 000 000 Benar
9 001 001 Benar
10 001 001 Benar
11 001 001 Benar
12 001 001 Benar
13 001 001 Benar
14 001 001 Benar
15 001 010 Salah
16 001 001 Benar
17 010 111 Salah
18 010 111 Salah
keluaran berupa kode biner penyakit 19 010 111 Salah
yangselanjutnya kode tersebut akan 20 010 010 Benar
dicek dan jenis penyakit akan muncul 21 010 010 Benar
padakotak dialog “Hasil Diagnosa 22 010 010 Benar
Penyakit”. Adapun jenis penyakit 23 010 111 Salah
saluran pernafasan yang dapat 24 010 010 Benar
diprediksi dengan aplikasi ini adalah 25 110 110 Benar
26 110 110 Benar
Asma, ISPA, Pneumonia, Bronkhitis,
27 110 110 Benar
Sinusitis dan Tuberkulosis.
28 110 110 Benar
29 110 110 Benar
Berikut ini adalah tabel hasil 30 110 110 Benar
pengujian data pasien dengan aplikasi 31 110 110 Benar
yang telah dibuat, 32 110 110 Benar
33 011 011 Benar
34 011 011 Benar
35 011 011 Benar
Dari hasil pengujian terhadap 48 data, didapat hasil 36 011 011 Benar
berupa data benar sebanyak 42 buah data, dan 37 011 011 Benar
terdapat 6 data yang hasil keluarannya tidak 38 011 011 Benar
sesuaidengan target yang diinginkan. 39 011 011 Benar
40 011 011 Benar
41 111 111 Benar
42 111 111 Benar
43 111 111 Benar
44 111 111 Benar
45 111 111 Benar
46 111 111 Benar
47 111 111 Benar
48 111 111 Benar

Anda mungkin juga menyukai