Anda di halaman 1dari 4

SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND ITS EDUCATIONS 2009

PERBANDINGAN MODEL PERCEPTRON DAN ADELINE PADA FUNGSI LOGIKA AND DAN OR
MENGGUNAKAN ARSITEKTUR
ARTIFICIAL NEURAL NETWORK

Anik Nur Handayani


Universitas Negeri Malang
Jl. Surabaya 6 Malang 65145
Email : handayani.anik@Yahoo.com

Abstrak Pemodelan dengan jaringan neural merupakan pembelajaran dan penyesuaian dari suatu
obyek. Dalam merancang jaringan neural yang perlu diperhatikan adalah banyaknya spesifikasi
yang akan diidentifikasi. Jaringan neural terdiri dari sejumlah neuron dan sejumlah masukan.
Dalam mengidentifikasi beberapa fungsi dasar logika, diperlukan beberapa neuron untuk
membedakannya. Neuron-neuron tersebut akan menghasilkan nilai kombinasi yang digunakan
untuk mengidentifikasi fungsi dasar logika tersebut. Dalam paper ini akan dibahas identifikasi fungsi
dasar logika AND dan OR dengan menggunakan model Perceptron dan ADELINE. Dari hasil uji
coba kedua model untuk mengidentifikasi fungsi logika AND dan OR, model ADELINE (fungsi AND
sampai dengan epoch 10, fungsi OR sampai dengan epoch 16) lebih terpilih dibandingkan model
perceptron (fungsi AND sampai dengan epoch 8, fungsi OR sampai dengan epoch 200).

Kata kunci : pemodelan, neural network, pengidentifikasian.

1. Pendahuluan 2.2 Model Percepton


Pemodelan dengan jaringan neural Model jaringan syaraf tiruan perceptron memiliki
merupakan pembelajaran dan penyesuaian dari karakteristik:
suatu obyek. Model-model jaringan neural dapat Arsitektur jaringan perceptron terdiri dari
dikasifikasikan menurut beberpa criteria, sperti beberapa unit masukan (ditambah satu
metode pembelajaran (dengan pengawasan atau bias), dan memiliki sebuah unit keluaran.
tanpa pengawasan), menurut arsitekturnya (umpan Fungsi aktivasi mempunyai kemungkinan
maju dan berulang), tipe output (biner dan kontinyu), nilai -1,0,1
dan lain-lain. Dalam hal ini pemodelan dipandang wi (baru) = wi (lama) +w; (i=1,,n) dengan
dari kumpulan data input outputnya. Jaringan syaraf w = t xi
tiruan sederhana pertama kali diperkenalkan oleh b (baru) = b (lama) + b; b = t

McCulloch dan Pitts (1943). Berikutnya Rosenbalt
(1958) Rosenbalt memperkenalkan dan mulai
net = xi wi + b
Harga threshold
i :
mengembangkan model jaringan yang disebut
Perceptron. Metode pelatihan diperkenalkan untuk 1 jika net >

mengoptimalkan hasil iterasinya. Model ADALINE f (net ) = 0 jika net net
(Adaptive Linear Neutron) ditemukan oleh Widrow
1 jika net <
dn Holf (1960). Arsitekturnya mirip dengan
perceptron. Perbedaan dengan perceptron adalah
dalam hal cara modifikasi bobotnya.

2. Tinjauan Pustaka
2.1 Neuron McCulloch Pitts
Model jaringan syaraf tiruan yang digunakan
McCulloch dan Pitts memiliki karakteristik:
Fungsi aktivasinya biner
Semua garis yang memperkuat sinyal
(bobot positip) memiliki kekuatan yang sama
(besar bobot). Hal yang sama berlaku untuk
garis yang memperlemah sinyal
Setiap neuron memiliki batas ambang
(threshold) yang sama. Gambar 1. Arsitektur JaringanPerceptron
Apabila total input ke neuron tersebut
melebihi threshold maka neuron akan 2.3 Model ADALINE
meneruskan sinyal. Model ADALINE (Adaptive Linear Neuron)
net = x1w1 + x2w2 + x3w3 ditemukan oleh Widrow dan Hoff (1960).
Harga threshold: Arsitekturnya mirip dengan perceptron. Perbedaan
1 jika net a dengan Perceptron adalah dalam hal cara
f (net ) = memodifikasi bobotnya. Bobot dimodifikasi dengan
0 jika < a aturan DELTA (Least Mean Square).

B1-79
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND ITS EDUCATIONS 2009 B1-80
Fungsi aktivasi yang dipakai : 3. Kecepatan iterasi ditentukan pula oleh laju
net = xiwi + b pemahaman (), dimana 0 1
y = f(net) = xiwi + b
Kuadrat selisih antara target (t) dan 3.2 Model ADELINE
keluaran jaringan (f(net)) merupakan error Algoritma pelatihan ADALINE adalah sebagai
yang terjadi. Dalam aturan delta, bobot berikut:
dimodifikasi sedemikian hingga errornya 1. Inisialisai semua bobot dan bias (umumnya
minimum. wi= b= 0).
E = (t f (net )) 2 = [t (xi wi +b )]
2 Tentuka laju pemahaman (=). Untuk
penyederhanaan biasanya diberi nilai kecil (=0,1).
wi (baru) = wi (lama) + (t-y)xi Tentukan toleransi kesalahan yang diijinkan
b (baru) = b(lama) + (t-y) 2. Selama max wi> batas toleransi lakukan:
Harga threshold : a. Set aktivasi unit masukan xi = si (i=1,..,n)
b. Hitung respon unit keluaran :
1 jika net a
f (net ) = net = xiwi + b
1 jika < a y = f(net) = net
c. Perbaiki bobot pola yang mengandung
3. Metodologi kesalahan (y t), menurut persamaan:
3.1 Model Perceptron ** wi (baru) = wi (lama) + (t-y)xi
Persiapan menggunakan perceptron untuk ** b (baru) = b(lama) + (t-y)
aplikasi fungsi logika AND dan OR dimisalkan dalam
uraian berikut:
1. S adalah vektor masukan dan t adalah
target keluaran
2. adalah learning rate yang ditentukan (laju
pemahaman)
3. adalah threshold yang ditentukan
Algoritma pelatihan perceptron adalah:
1. Inisialisasi semua bobot dan bias (umumnya
wi = b = 0)
Tentukan laju pemahaman (=). Untuk
penyederhanaan biasanya diberi nilai 1.
2. Selama ada elemen vektor masukan yang
respon unit keluarannya tidak sama dengan
target, lakukan:
>> Set aktivasi unit masukan xi = si = (i=1,,n) Gambar 2. Arsitektur Adaline
>> Hitung respon unit keluaran :
net = xi wi + b Setelah proses pelatihan selesai, ADALINE
i dapat dipakai untuk pengenalan pola. Untuk itu,
umumnya dipakai fungsi threshold bipolar.
1 jika net > Caranya adalah sebagai berikut:

f (net ) = 0 jika net net 1. Inisialisasi semua bobot dan bias dengan
1 jika net < bobot dan bias hasil pelatihan
2. Untuk setiap input masukan bipoar x,
>> Perbaiki bobot pola yang mengandung lakukan :
kesalahan (yt) menurut persamaan: a. Set aktivasi unit masukan xi = si
** wi (baru) = wi (lama) +w; (i=1,,n) (i=1,..,n)
dengan w = t xi b. Hitung net vektor keluaran :
** b (baru) = b (lama) + b; b = t net = xiwi + b
3. Kenakan fungsi aktivasi :
Ada beberapa hal yang perlu diperhatikan dalam
algoritma perceptron: 1 jika net 0
y=
1 jika net < 0
1. Iterasi dilakukan terus hingga semua pola
memiliki keluaran jaringan yang sama
dengan targetnya (jaringan sudah
memahami pola). 4. Hasil dan Pembahasan
2. Perubahan bobot hanya dilakukan pada Dengan memasukkan nilai pada setiap variabel
pola yang mengandung kesalahan (keluaran didapatkan nilai seperti tercantum dalam tabel 1, 2
jaringan target). Perubahan tersebut dan 3.
merupakan hasil kali unit masukan dengan
target laju pemahaman.
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND ITS EDUCATIONS 2009 B1-81
Tabel 1. Masukan dan Target Fungsi Logika AND
x1 x2 x3 Target
1 1 1 1
1 1 -1 -1
1 -1 1 -1
1 -1 -1 -1
-1 1 1 -1
-1 1 -1 -1
-1 -1 1 -1
-1 -1 -1 -1

Tabel 2. Masukan dan Target Fungsi Logika OR


x1 x2 x3 Target
1 1 1 1
1 1 -1 1
1 -1 1 1
1 -1 -1 1
-1 1 1 1
-1 1 -1 1
-1 -1 1 1
-1 -1 -1 -1

Gambar 3. Simulasi Program

Tabel 3. Tabel Hasil Percobaan


ADELINE
Perceptron
Inisialisasi Awal w1 = 0 w2 = 0 w3 = 0 b=0
Inisialisasi Awal w1 = 0 w2 = 0 w3 = 0 b=0
Bias = 1
Bias = 1
Alpha = 1
Alpha = 1
Toleransi = 0,05
AND OR
Perceptron ADELINE Perceptron ADELINE

Epoch: 8 Epoch : 10 Epoch : 200 Epoch : 16

dw1 = 0 dw1 = 0.0962709477064704 dw1 = 0 dw1 = 0


dw2 = 0 dw2 = 0.0962709477064704 dw2 = 0 dw2 = 0
dw3 = 0 dw3 = 0.0962709477064704 dw3 = 0 dw3 = 0
db = 0 db = 0.0962709477064704 db = 0 db = 0
w1 = 2 w1 = 0.444326979085926 w1 = 0 w1 = 0.324409800480246
w2 = 3 w2 = 0.441311135245926 w2 = 1 w2 = 0.417229851641274
w3 = 4 w3 = 0.441311135245926 w3 = 0 w3 = 0.417229851641274
bo = -8 bo = -0.904574935816602 bo = 4 bo = 0.686417280734076
net = 1 net = 0.0372905229352958 net = 5 net = 1.84528678449687
y1 = 1 y1 = 1 y1 = 1 y1 = 1
---------------------- ---------------------- ---------------------- ----------------------
dw1 = 0 dw1 = -0.0539752043269325 dw1 = 0 dw1 = 0
dw2 = 0 dw2 = -0.0539752043269325 dw2 = 0 dw2 = 0
dw3 = 0 dw3 = 0.0539752043269325 dw3 = 0 dw3 = 0
db = 0 db = -0.0539752043269325 db = 0 db = 0
w1 = 2 w1 = 0.390351774758994 w1 = 0 w1 = 0.324409800480246
w2 = 3 w2 = 0.387335930918994 w2 = 1 w2 = 0.417229851641274
w3 = 4 w3 = 0.495286339572859 w3 = 0 w3 = 0.417229851641274
bo = -8 bo = -0.958550140143534 bo = 4 bo = 0.686417280734076
net = -7 net = -0.460247956730675 net = 5 net = 1.01082708121432
y2 = -1 y2 = -1 y2 = 1 y2 = 1
---------------------- ---------------------- ---------------------- ----------------------
dw1 = 0 dw1 = -0.0539752043269325 dw1 = 0 dw1 = 0
dw2 = 0 dw2 = 0.0539752043269325 dw2 = 0 dw2 = 0
dw3 = 0 dw3 = -0.0539752043269325 dw3 = 0 dw3 = 0
db = 0 db = -0.0539752043269325 db = 0 db = 0
w1 = 2 w1 = 0.336376570432062 w1 = 0 w1 = 0.324409800480246
w2 = 3 w2 = 0.441311135245926 w2 = 1 w2 = 0.417229851641274
w3 = 4 w3 = 0.441311135245926 w3 = 0 w3 = 0.417229851641274
bo = -8 bo = -1.01252534447047 bo = 4 bo = 0.686417280734076
net = -5 net = -0.460247956730675 net = 3 net = 1.01082708121432
y3 = -1 y3 = -1 y3 = 1 y3 = 1
---------------------- ---------------------- ---------------------- ----------------------
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND ITS EDUCATIONS 2009 B1-82
dw1 = 0 dw1 = 0.0558771044530258 dw1 = 0 dw1 = 0.0823632622068226
dw2 = 0 dw2 = -0.0558771044530258 dw2 = 0 dw2 = -0.0823632622068226
dw3 = 0 dw3 = -0.0558771044530258 dw3 = 0 dw3 = -0.0823632622068226
db = 0 db = 0.0558771044530258 db = 0 db = 0.0823632622068226
w1 = 2 w1 = 0.392253674885087 w1 = 0 w1 = 0.406773062687069
w2 = 3 w2 = 0.385434030792901 w2 = 1 w2 = 0.334866589434452
w3 = 4 w3 = 0.385434030792901 w3 = 0 w3 = 0.334866589434452
bo = -8 bo = -0.956648240017441 bo = 4 bo = 0.768780542940899
net = -13 net = -1.55877104453026 net = 3 net = 0.176367377931774
y4 = -1 y4 = -1 y4 = 1 y4 = 1
---------------------- dw1 = 0 ---------------------- dw1 = 0
dw1 = 0 dw2 = 0 dw1 = 0 dw2 = 0
dw2 = 0 dw3 = 0 dw2 = 0 dw3 = 0
dw3 = 0 db = 0 dw3 = 0 db = 0
db = 0 w1 = 0.392253674885087 db = 0 w1 = 0.406773062687069
w1 = 2 w2 = 0.385434030792901 w1 = 0 w2 = 0.334866589434452
w2 = 3 w3 = 0.385434030792901 w2 = 1 w3 = 0.334866589434452
w3 = 4 bo = -0.956648240017441 w3 = 0 bo = 0.768780542940899
bo = -8 net = -0.578033853316727 bo = 4 net = 1.03174065912273
net = -3 y5 = -1 net = 5 y5 = 1
y5 = -1 ---------------------- y5 = 1 ----------------------
---------------------- dw1 = 0 ---------------------- dw1 = -0.0637992519746169
dw1 = 0 dw2 = 0 dw1 = 0 dw2 = 0.0637992519746169
dw2 = 0 dw3 = 0 dw2 = 0 dw3 = -0.0637992519746169
dw3 = 0 db = 0 dw3 = 0 db = 0.0637992519746169
db = 0 w1 = 0.392253674885087 db = 0 w1 = 0.342973810712452
w1 = 2 w2 = 0.385434030792901 w1 = 0 w2 = 0.398665841409069
w2 = 3 w3 = 0.385434030792901 w2 = 1 w3 = 0.271067337459835
w3 = 4 bo = -0.956648240017441 w3 = 0 bo = 0.832579794915516
bo = -8 net = -1.34890191490253 bo = 4 net = 0.362007480253831
net = -11 y6 = -1 net = 5 y6 = 1
y6 = -1 ---------------------- y6 = 1 ----------------------
---------------------- dw1 = 0 ---------------------- dw1 = -0.063799251974617
dw1 = 0 dw2 = 0 dw1 = 0 dw2 = -0.063799251974617
dw2 = 0 dw3 = 0 dw2 = 0 dw3 = 0.063799251974617
dw3 = 0 db = 0 dw3 = 0 db = 0.063799251974617
db = 0 w1 = 0.392253674885087 db = 0 w1 = 0.279174558737835
w1 = 2 w2 = 0.385434030792901 w1 = 0 w2 = 0.334866589434452
w2 = 3 w3 = 0.385434030792901 w2 = 1 w3 = 0.334866589434452
w3 = 4 bo = -0.956648240017441 w3 = 0 bo = 0.896379046890133
bo = -8 net = -1.34890191490253 bo = 4 net = 0.362007480253831
net = -9 y7 = -1 net = 3 y7 = 1
y7 = -1 ---------------------- y7 = 1 ----------------------
---------------------- dw1 = 0 ---------------------- dw1 = 0.0947471309283395
dw1 = 0 dw2 = 0 dw1 = 0 dw2 = 0.0947471309283395
dw2 = 0 dw3 = 0 dw2 = 0 dw3 = 0.0947471309283395
dw3 = 0 db = 0 dw3 = 0 db = -0.0947471309283395
db = 0 w1 = 0.392253674885087 db = 0 w1 = 0.373921689666174
w1 = 2 w2 = 0.385434030792901 w1 = 0 w2 = 0.429613720362791
w2 = 3 w3 = 0.385434030792901 w2 = 1 w3 = 0.429613720362791
w3 = 4 bo = -0.956648240017441 w3 = 0 bo = 0.801631915961794
bo = -8 net = -2.11976997648833 bo = 4 net = -0.052528690716605
net = -17 y8 = -1 net = 3 y8 =- 1
y8 = -1 y8 = 1

5. Kesimpulan Haykin, S., 1994, Neural Networks, a


Jaringan neural terdiri dari sejumlah neuron Comprehensive Foundation, Prentice Hall
dan sejumlah masukan. Dalam merancang jaringan Siang, J.J., 2005, Jaringan Syaraf Tiruan, Penerbit
neural yang perlu diperhatikan adalah banyaknya Andi, Yogyakarta
spesifikasi yang akan diidentifikasi. Setelah Susmikanti M., Adhiyaksa A., 2005, Identifikasi
membandingkan kedua model untuk Huruf Menggunakan Metode Pembelajaran
mengidentifikasi fungsi logika AND dan OR, model Perceptron dalam Jaringan Neural, Prosiding
ADELINE (fungsi AND sampai dengan epoch 10, Semiloka Teknologi dan komputasi Serta Aplikasi.
fungsi OR sampai dengan epoch 16) lebih terpilih
dibandingkan model perceptron (fungsi AND sampai
dengan epoch 8, fungsi OR sampai dengan epoch
200).

DAFTAR PUSTAKA
Cubero, R.G., Neural Networks for Water Demand
Time Series Forecasting, Proceding of International
Workshop of Artificial Neural Network pp 453-46,
Granada, Spain

Anda mungkin juga menyukai