PERBANDINGAN MODEL PERCEPTRON DAN ADELINE PADA FUNGSI LOGIKA AND DAN OR
MENGGUNAKAN ARSITEKTUR
ARTIFICIAL NEURAL NETWORK
Abstrak Pemodelan dengan jaringan neural merupakan pembelajaran dan penyesuaian dari suatu
obyek. Dalam merancang jaringan neural yang perlu diperhatikan adalah banyaknya spesifikasi
yang akan diidentifikasi. Jaringan neural terdiri dari sejumlah neuron dan sejumlah masukan.
Dalam mengidentifikasi beberapa fungsi dasar logika, diperlukan beberapa neuron untuk
membedakannya. Neuron-neuron tersebut akan menghasilkan nilai kombinasi yang digunakan
untuk mengidentifikasi fungsi dasar logika tersebut. Dalam paper ini akan dibahas identifikasi fungsi
dasar logika AND dan OR dengan menggunakan model Perceptron dan ADELINE. Dari hasil uji
coba kedua model untuk mengidentifikasi fungsi logika AND dan OR, model ADELINE (fungsi AND
sampai dengan epoch 10, fungsi OR sampai dengan epoch 16) lebih terpilih dibandingkan model
perceptron (fungsi AND sampai dengan epoch 8, fungsi OR sampai dengan epoch 200).
2. Tinjauan Pustaka
2.1 Neuron McCulloch Pitts
Model jaringan syaraf tiruan yang digunakan
McCulloch dan Pitts memiliki karakteristik:
Fungsi aktivasinya biner
Semua garis yang memperkuat sinyal
(bobot positip) memiliki kekuatan yang sama
(besar bobot). Hal yang sama berlaku untuk
garis yang memperlemah sinyal
Setiap neuron memiliki batas ambang
(threshold) yang sama. Gambar 1. Arsitektur JaringanPerceptron
Apabila total input ke neuron tersebut
melebihi threshold maka neuron akan 2.3 Model ADALINE
meneruskan sinyal. Model ADALINE (Adaptive Linear Neuron)
net = x1w1 + x2w2 + x3w3 ditemukan oleh Widrow dan Hoff (1960).
Harga threshold: Arsitekturnya mirip dengan perceptron. Perbedaan
1 jika net a dengan Perceptron adalah dalam hal cara
f (net ) = memodifikasi bobotnya. Bobot dimodifikasi dengan
0 jika < a aturan DELTA (Least Mean Square).
B1-79
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND ITS EDUCATIONS 2009 B1-80
Fungsi aktivasi yang dipakai : 3. Kecepatan iterasi ditentukan pula oleh laju
net = xiwi + b pemahaman (), dimana 0 1
y = f(net) = xiwi + b
Kuadrat selisih antara target (t) dan 3.2 Model ADELINE
keluaran jaringan (f(net)) merupakan error Algoritma pelatihan ADALINE adalah sebagai
yang terjadi. Dalam aturan delta, bobot berikut:
dimodifikasi sedemikian hingga errornya 1. Inisialisai semua bobot dan bias (umumnya
minimum. wi= b= 0).
E = (t f (net )) 2 = [t (xi wi +b )]
2 Tentuka laju pemahaman (=). Untuk
penyederhanaan biasanya diberi nilai kecil (=0,1).
wi (baru) = wi (lama) + (t-y)xi Tentukan toleransi kesalahan yang diijinkan
b (baru) = b(lama) + (t-y) 2. Selama max wi> batas toleransi lakukan:
Harga threshold : a. Set aktivasi unit masukan xi = si (i=1,..,n)
b. Hitung respon unit keluaran :
1 jika net a
f (net ) = net = xiwi + b
1 jika < a y = f(net) = net
c. Perbaiki bobot pola yang mengandung
3. Metodologi kesalahan (y t), menurut persamaan:
3.1 Model Perceptron ** wi (baru) = wi (lama) + (t-y)xi
Persiapan menggunakan perceptron untuk ** b (baru) = b(lama) + (t-y)
aplikasi fungsi logika AND dan OR dimisalkan dalam
uraian berikut:
1. S adalah vektor masukan dan t adalah
target keluaran
2. adalah learning rate yang ditentukan (laju
pemahaman)
3. adalah threshold yang ditentukan
Algoritma pelatihan perceptron adalah:
1. Inisialisasi semua bobot dan bias (umumnya
wi = b = 0)
Tentukan laju pemahaman (=). Untuk
penyederhanaan biasanya diberi nilai 1.
2. Selama ada elemen vektor masukan yang
respon unit keluarannya tidak sama dengan
target, lakukan:
>> Set aktivasi unit masukan xi = si = (i=1,,n) Gambar 2. Arsitektur Adaline
>> Hitung respon unit keluaran :
net = xi wi + b Setelah proses pelatihan selesai, ADALINE
i dapat dipakai untuk pengenalan pola. Untuk itu,
umumnya dipakai fungsi threshold bipolar.
1 jika net > Caranya adalah sebagai berikut:
f (net ) = 0 jika net net 1. Inisialisasi semua bobot dan bias dengan
1 jika net < bobot dan bias hasil pelatihan
2. Untuk setiap input masukan bipoar x,
>> Perbaiki bobot pola yang mengandung lakukan :
kesalahan (yt) menurut persamaan: a. Set aktivasi unit masukan xi = si
** wi (baru) = wi (lama) +w; (i=1,,n) (i=1,..,n)
dengan w = t xi b. Hitung net vektor keluaran :
** b (baru) = b (lama) + b; b = t net = xiwi + b
3. Kenakan fungsi aktivasi :
Ada beberapa hal yang perlu diperhatikan dalam
algoritma perceptron: 1 jika net 0
y=
1 jika net < 0
1. Iterasi dilakukan terus hingga semua pola
memiliki keluaran jaringan yang sama
dengan targetnya (jaringan sudah
memahami pola). 4. Hasil dan Pembahasan
2. Perubahan bobot hanya dilakukan pada Dengan memasukkan nilai pada setiap variabel
pola yang mengandung kesalahan (keluaran didapatkan nilai seperti tercantum dalam tabel 1, 2
jaringan target). Perubahan tersebut dan 3.
merupakan hasil kali unit masukan dengan
target laju pemahaman.
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND ITS EDUCATIONS 2009 B1-81
Tabel 1. Masukan dan Target Fungsi Logika AND
x1 x2 x3 Target
1 1 1 1
1 1 -1 -1
1 -1 1 -1
1 -1 -1 -1
-1 1 1 -1
-1 1 -1 -1
-1 -1 1 -1
-1 -1 -1 -1
DAFTAR PUSTAKA
Cubero, R.G., Neural Networks for Water Demand
Time Series Forecasting, Proceding of International
Workshop of Artificial Neural Network pp 453-46,
Granada, Spain