Anda di halaman 1dari 5

TUGAS BIOMEDIKA SEMESTER GANJIL 2017

Vol.XX No.XX,ISSN:XXXX – XXXX

Pemodelan Logic Gate Menggunakan Algoritma Neural Network


Dengan Metode ADELINE Sebagai Mesin Learning
Achmad yani1), Nasrul Afif Soliardi2)
1,2
Teknik Elektro, Universitas Trunojoyo Madura, Madura, Jawa Timur
1)
achmadyania3b@gmail.com, 2)nasrulafif4@gmail.com

Abstrak: Berkembangnya metode Jaringan saraf tiruan (Artifical Neural Network) suatu algoritma yang dapat meniru cara
kerja otak mahluk hidup yaitu sel syaraf (neuron) yang sangat pesat pada era- modern menuntut para praktisi atau mahasiswa untuk
memahami dan mengerti tentang jaringan adaline. Dalam merancang jaringan neural network yang perlu diperhatikan
adalah banyaknya spesifikasi yang akan diidentifikasi. Dalam mengindentifikasi fungsi dasar logic gate diperlukan
beberapa neuron untuk membedakan. Neuron-neuron tersebut akan menghasilkan nilai kombinasi yang digunakan
untuk mengidentifikasi fungsi dasar logic gate tersebut. Penggunaan neural network pada pemodelan logic gate
dapat menjadi solusi yang baik, namun yang menjadi masalah adalah arsitektur jaringan dan pemilihan metode
pelatihan yang tepat. Penerapan metode adeline dan neural network untuk pemodelan logic gate bertujuan untuk
mendapatkan nilai output dan error. Error inilah yang nantinya akan digunakan pada algoritma neural network untuk
melakukan koreksi dengan mengupdate bobot dari masing-masing input. Model ini baik untuk digunakan karena
memberikan hasil prediksi yang cukup akurat yang ditunjukkan oleh kedekatan target dengan output.

Kata-kata kunci : Jaringan saraf tiruan, logic gate, adaline, error.

Berdasarkan penjelasan di atas maka dirancanglah


1. Pendahuluan
sebuah program “Pemodelan Logic Gate Menggunakan
Perkembangan teknologi berkembang sangat Algoritma Neural Network Dengan Metode ADELINE”
pesat, model pembelajaran sangat banyak salah satunya untuk mempelajari lebih dalam konsep algoritma neural
adalah Jaringan saraf tiruan (JST) atau Artificial Neural network.
Network. Artificial Neural Network adalah jaringan dari
sekelompok unit pemproses kecil yang dimodelkan 2. Dasar Teori
berdasarkan pembelajaran dan penyesuaian dari
suatu obyek. Artificial Neural Network merupakan 2.1 Gerbang Logika
sistem adaptif yang dapat mengubah strukturnya untuk Gerbang Logika adalah rangkaian dengan satu atau
memecahkan masalah berdasarkan informasi eksternal lebih dari satu sinyal masukan tetapi hanya
maupun internal yang mengalir melalui jaringan menghasilkan satu sinyal berupa tegangan tinggi atau
tersebut. tegangan rendah. Dikarenakan analisis gerbang logika
Dalam hal ini pemodelan dipandang dari dilakukan dengan Aljabar Boolean maka gerbang logika
kumpulan data input outputnya. Jaringan syaraf tiruan sering juga disebut Rangkaian logika.
sederhana pertama kali diperkenalkan oleh a. Gerbang AND
McCulloch dan Pitts (1943). Berikutnya Gerbang AND mempunyai dua atau lebih sinyal
Rosenbalt (1958) Rosenbalt memperkenalkan dan input tetapi hanya satu sinyal output. Gerbang
mulai mengembangkan model jaringan yang AND mempunyai sifat bila sinyal keluaran ingin
disebut Perceptron. Metode pelatihan tinggi (1) maka semua sinyal masukan harus dalam
diperkenalkan untuk mengoptimalkan hasil keadaan tinggi (1). Gambar simbol logika AND
iterasinya. Model ADALINE (Adaptive Linear dengan 4 input terlihat pada gambar 1.
Neutron ) ditemukan oleh Widrow dn Holf (1960).
Arsitekturnya mirip dengan perceptron. Perbedaan
dengan perceptron adalah dalam hal cara modifikasi
bobotnya .

Korespondensi: biomedik2017utm@gmail.com Gambar 1. Simbol AND
a) Achmad Yani[Teknik Elektro, Universitas
Trunojoyo Madura,Jl. Raya Telang,Bangkalan]
b) Nasrul Afif Soliardi [Teknik Elektro,Universitas
Trunojoyo Madura, Jl. Raya Telang,Bangkalan]

1
© 2017ProdiTeknikElektro
Tabel 1. Tabel Kebenaran AND 4 Input dan 1 Output
X1 X2 X3 X4 Y
0 0 0 0 0
0 0 0 1 0
0 0 1 0 0 Gambar 3.Simbol XOR
0 0 1 1 0 Tabel 3. Tabel Kebenaran XOR 4 input 1 output
0 1 0 0 0 X1 X2 X3 X4 Y
0 1 0 1 0 0 0 0 0 0
0 1 1 0 0 0 0 0 1 1
0 1 1 1 0 0 0 1 0 1
1 0 0 0 0 0 0 1 1 0
1 0 0 1 0 0 1 0 0 1
1 0 1 0 0 0 1 0 1 0
1 0 1 1 0 0 1 1 0 0
1 1 0 0 0 0 1 1 1 1
1 1 0 1 0 1 0 0 0 1
1 1 1 0 0
1 0 0 1 0
1 1 1 1 1
1 0 1 0 0
1 0 1 1 1
b. Gerbang OR
Gerbang OR merupakan suatu gerbang logika 1 1 0 0 0
yang mempunyai dua atau lebih sinyal input, tetapi 1 1 0 1 1
hanya satu sinyal output. Gerbang OR mempunyai 1 1 1 0 1
sifat bila salah satu dari sinyal masukan tinggi 1 1 1 1 0
(1), maka sinyal keluaran akan menjadi tinggi (1)
juga. Gambar simbol logika OR dengan 4 input 2.2 Jaringan Syaraf Tiruan
terlihat pada gambar 2. Jaringan syaraf tiruan (JST) adalah sistem
pemroses informasi yang memiliki karakteristik
mirip dengan jaringan syaraf biologi. JST
merupakan suatu model kecerdasan yang diilhami
dari struktur otak manusia dan kemudian
Gambar 2. Simbol OR diimplementasikan menggunakan program
komputer yang mampu menyelesaikan sejumlah
Tabel 2. Tabel Kebenaran OR 4 input 1output proses perhitungan selama proses pembelajaran
X1 X2 X3 X4 Y berlangsung. Jaringan syaraf tiruan akan
0 0 0 0 0 mentransformasikan informasi dalam bentuk bobot
0 0 0 1 1 dari satu neuron ke neuron yang lainnya, informasi
0 0 1 0 1 tersebut akan diproses oleh suatu fungsi perambatan
0 0 1 1 1 dan semua bobot input/masukan yang datang
0 1 0 0 1 dijumlahkan kemudian dibandingkan dengan suatu
0 1 0 1 1 nilai ambang tertentu melalui fungsi aktivasi setiap
0 1 1 0 1 neuron. Bila nilai melampaui nilai ambang maka
0 1 1 1 1 neuron akan diaktifkan dan informasi keluaran
1 0 0 0 1 diteruskan ke neuron yang tersambung dengannya.
1 0 0 1 1
1 0 1 0 1
1 0 1 1 1
1 1 0 0 1
1 1 0 1 1
1 1 1 0 1
1 1 1 1 1

c. Gerbang XOR
Gerbang XOR disebut juga gerbang EXCLUSIVE Gambar 4 Neuron buatan sederhana
OR dikarenakan hanya mengenali sinyal yang
memiliki bit 1 (tinggi) dalam jumlah ganjil untuk Dari gambar 4 terlihat serangkaian input yang
menghasilkan sinyal logika XOR dengan 4 inputan dilakukan pada suatu neuron buatan. Setiap sinyal
dan 1outputan terlihat pada gambar 3. dikalikan dengan bobot (weight), sebelum masuk ke

2
blok penjumlahan yang kurang lebih bersesuaian update bobot dengan arah gradien negatif. Nilai µ
dengan badan sel syaraf biologis, fungsi ini yang digunakan umumnya lebih dari 0. Pemilihan µ
menjumlahkan semua input (perkalian semua input yang terlalu kecil dapat menyebabkan perubahan
dengan bobotnya) secara aljabar dan menghasilkan nilai bobot yang kecil sehingga kecepatan
sebuah output (keluaran). Dalam unit keluaran, belajarnya menjadi lama karena membutuhkan
variabel x dimasukkan ke dalam suatu fungsi lebih banyak iterasi untuk mencapai suatu keadaan
tertentu untuk menghasilkan keluaran akhir. convergen. Sedangkan bila nilai µ yang dipilih
Jaringan syaraf tiruan terdiri dari neuron-neuron, terlalu besar maka akan menyebabkan langkah
dan ada hubungan antara neuron-neuron tersebut. perubahan yang besar sehingga proses belajar
Neuron-neuron tersebut akan mentransformasikan tersebut sulit mencapai keadaan stabil.
informasi yang diterima melalui sambungan keluar Dalam menentukan nilai dari µ yang mana nilai
menuju neuron-neuron yang lain. Pada jaringan tersebut apabila terlalu kecil maka iterasi yang
syaraf, hubungan ini dikenal dengan nama bobot. diperlukan untuk mencapai keadaan convergen
Informasi tersebut disimpan pada suatu nilai akan lebih banyak namun hasilnya lebih presisi.
tertentu pada bobot tersebut. Informasi (disebut Sedangkan bila nilai µ yang diberikan besar maka
dengan input) akan dikirimkan ke neuron dengan kecepatan belajarnya akan tinggi namun hasilnya
bobot kedatangan tertentu. Input ini akan diproses tidak presisi sehingga Darken dan Moddy
oleh suatu fungsi perambatan yang akan mengenalkan suatu alghoritma yang membuat nilai
menjumlahkan nilai-nilai semua bobot yang datang. dari learning rate yang berubah berdasarkan jumlah
Hasil penjumlahan ini kemudian akan dibandingkan iterasi yang telah dilalui.
dengan suatu nilai ambang (threshold) tertentu Desain Topologi Struktur Simple Adaptive
melalui fungsi aktivasi setiap neuron. Apabila input Linear Combiner dengan 4 inputan.
tersebut melewati suatu nilai ambang tertentu, maka
neuron tersebut akan diaktifkan, tapi kalau tidak,
maka neuron tersebut tidak akan diaktifkan. Apabila
neuron tersebut diaktifkan, maka neuron tersebut
akan mengirimkan output melalui bobot-bobot
outputnya ke semua neuron yang berhubungan
dengannya. Demikian seterusnya.
Pada jaringan syaraf, neuron-neuron akan Gambar 5.Topologi Simple Adaptive Linier
dikumpulkan dalam lapisan-lapisan (layer) yang Combiner
disebut dengan lapisan neuron (neuron layers).
Neuron-neuron pada satu lapisan akan dihubungkan
dengan lapisan-lapisan sebelum dan sesudahnya
(kecuali lapisan input dan lapisan output). Informasi
yang diberikan pada jaringan syaraf akan
dirambatkan lapisan ke lapisan, mulai dari lapisan
input sampai ke lapisan output melalui lapisan yang
lainnya, yang sering dikenal dengan nama lapisan
tersembunyi (hidden layer).
Gambar 6. Mean Square Error (MSE)
Jaringan saraf tiruan bekerja berdasarkan
asumsi awal yang diberikan sebagai titik tolak Dari gambar diatas, terdapat 4 input x1,x2,x3
pembanding pada proses selanjutnya. Proses belajar dan x4 serta satu input bias yang masing-masing
pada jaringan saraf tiruan ditunjukkan dengan memiliki bobot (w). Output (v) didapat dari
perubahan bobot penghubung antar-sel jaringan penjumlahan setiap input yang dikalikan dengan
saraf. masing-masing bobotnya. Output ini kemudian
dibandingkan dengan desired output (d) atau disebut
2.3 Adeline (Adative Linear Neuron) target yang akan menghasilkan nilai error (e). Error
Adeline (Adaptive Linear Neuron) adalah suatu inilah yang nantinya akan digunakan pada algoritma
algoritma pembelajaran dari neural network LMS untuk melakukan koreksi dengan mengupdate
dikembangkan oleh Widrow dan Hoff pada tahun bobot dari masing-masing input. Setiap satu siklus
1959. Adeline dilatih dengan menggunakan aturan mulai dari penghitungan input sampai dengan
delta, yang juga dikenal sebagai aturan least mean diperolehnya bobot baru dinamakan satu kali iterasi
squares(LMS) atau Widrow - Hoff. Arsitektur LMS atau dilambangkan dengan k sehingga akan muncul
berbasis pada simple adaptive linier combiner. nilai ouput v(k) yaitu output pada iterasi ke-k, d(k)
Algorithma LMS akan mengupdate bobot (weight) yaitu output yang diharapkan pada iterasi ke-k serta
dari adaptive linear combiner. Yang mana dalam e(k) yaitu error yang terjadi pada iterasi ke-k.
mengupdate bobot tersebut terdapat suatu nilai µ Secara keseluruhan persamaan-persamaan
atau disebut learning rate parameter. Nilai ini untuk Artificial Neural Network menggunakan MSE
menentukan besarnya langkah atau kecepatan dijabarkan dibawah ini.

3
 Error digunakan untuk mencari nilai errror yang
terjadi
e(k) = d(k) − ∑nh=1 Wh (k)Xh (k).......................(1)
 Learning rate constant digunakan untuk mencari
update niai w dan θ.
𝜇0
𝜇 (𝑘) =
1+𝑘/𝜏

....................................................(2)
 Update nilai w (weight) digunakan untuk
menghitung error. Gambar 7. Tampilan Program Machine Learning
3.2 Analisa
w(k + 1) = w(k) + μ = w(k) + μe(k)x(k).....(3)
Tabel 4. pengujian gerbang AND
Jum.
N Error
 Update nila θ (threshold) digunakan untuk 𝝁𝟎 𝝉 Error MSE Itera
o Ref.
menghitung error. si
100
θ(k + 1) = θ(k) + μ(∇J(θ) = θ(k) + μe(k)....(4) 0.0743970648640547 12
0.7 0
 1 1E-1
Binary sigmoid digunakan untuk menghitung 5 100 0.0704351157298028 14
error. 10 0.0363345874600378 19
1 0.7
..................................................................(5) 0.0704351157298028 14
1+𝑒 −𝑎.𝑣 5
2 1E-1 0.5 100 0.0714175912046914 18
3. Data dan Analisa
0.2
Pembuatan pengujian (simulasi) mengacu pada hasil 0.0273115112823884 20
5
perancangan program yang dibuat dengan menggunakan
perangkat lunak Delphi XE7, dipilih sebagai lingkungan 0.0009360754635102
1E-3 9
percobaan karena kualitas, produktivitas, pengembangan 99
0.7
perangkat lunak, kecepatan kompiler program. 3 100 0.0012850621221601
1E-2 5 12
Perancangan program mechine learning menggunakan 5
software Delphi dengan bahasa pemrograman pascal 1E-1 0.0704351157298028 14
merupakan generasi penerus dari turbo pascal.
Percobaan simulasi dengan program yang sudah Tabel 5. pengujian gerbang OR
dibuat harus melalui tahapan berikut : Error 𝝁𝟎 Jum.
No 𝝉 Error MSE
1. Atur nilai k=1, inisialisasi vektor bobot w(k=1), dan Ref. Iterasi
tetapkan nilai dari μ_0 dan τ. 0.0697721352
1000 1
2. Hitung learning rate parameter sebagai berikut : 532034
3. Hitung binary signmoid 0.0699733562
1 1E-1 0.75 100 1
4. Hitung error. 059057
5. Hitung error MSE (Mean Square Error) 0.0720759028
10 2
6. Update bobot 423285
7. Update nilai thershold 0.0699733562
0.75 1
untuk k = 1,2,...,n. 059057
8. Jika telah convergen maka berhenti jika tidak maka atur 0.0866415564
2 1E-1 0.5 100 1
903843
k ← k+1, kemudian ulangi dari point 2.
0.0120991831
3.1 Data Pengujian
0.25 2
666235
Percobaan dilakukan berdasarkan data yang sudah di 0.0007788206
tentukan sebelumnya, untuk melihat respon rate learning 1E-3 2
5984461
dari program yang sudah buat dengan metode ADELINE. 0.0007788206
Desain untuk tampilan program pada logic gate terlihat pada 3 1E-2 0.75 100 2
5984461
gambar 7. 0.0699733562
1E-1 1
059057

4
Daftar Pustaka

Tabel 6. pengujian gerbang XOR [1] Handayani, Anik Nur, "Perbandingan Model Perceptron dan
Error 𝝁𝟎 Jum. Adeline pada Fungsi Logika AND dan OR Menggunakan
No 𝝉 Error MSE
Ref. Iterasi Arsitektur Artificial Neural Network,” in Electrical,
4.1170318470 Informatics and ITS Educations, 2009, pp. 79-82.
1000 1
2282E-9 [2] Yuliandar, David, Budi Warsito, Hasbi Yasin, “Pelatihan
4.1170754688 Feed Forward Neural Network Menggunakan Algoritma
1 1E-1 0.75 100 1 Genetika Dengan Metode Seleksi Turnamen Untuk Data
8595E-9
4.1174724703 Time Series, “ Gaussian, vol. 1, no. 1, pp. 65-72, 2012.
10 2 [3] Tocci, R.J., Widmer, N.S., dan Moss, G.L. 2007. “Digital
2799E-9
4.1170754688 Systems: Principles and Applications,” Tenth Edition,
0.75 1 Prentice Hall.
8595E-9
100
4.1186933617
2 1E-1 0.5 2
8733E-9
0.25 4.1203125268 2
2097E-9
3 1E-16 100 0.0009360754 1
63510299
1E-9 0.0012850621 1
0.75
2216015
1E-1 4.1170754688 1
8595E-9
Dari ketiga table diatas (tabel4, tabel5, dan tabel 6) dapat
disimpulkan bahwa:
Pengaruh nilai μ pada percobaaan ini jika nilai error
referensi dan τ tetap maka akan berpengaruh terhadap jumlah
iterasi dan θ pengaruhnya karena adanya update w dan θ
yang telah sesuai dengan rumus yang dimasukkan di source
code. Kesimpulannya Jika μ besar, maka jumlah iterasi
semakin sedikit dan θ semakin besar, begitu juga sebaliknya

Pengaruh nilai error referensi pada percobaaan ini jika


nilai μ dan τ tetap maka akan berpengaruh terhadap jumlah
iterasi. Jika error referensi kecil, maka jumlah iterasi
semakin banyak, begitu juga sebaliknya..
Pengaruh nilai τ pada percobaaan ini jika nilai error
referensi dan μ tetap maka akan berpengaruh terhadap
jumlah iterasi dan θ pengaruhnya karena adanya update w
dan θ yang telah sesuai dengan rumus yang dimasukkan di
source code. Jika τ besar, maka jumlah iterasi semakin
sedikit dan θ semakin besar, begitu juga sebaliknya.

4. Kesimpulan
Berdasarkan hasil uji coba yang dilakukan dengan
memasukkan nilai error refrensi, 𝜇0 dan 𝜏, dapat diambil
suatu kesimpulan sebagai berikut :
a. Semakin besar nilai 𝜏 maka iterasi akan semakin
sedikit, dan sebaliknya.
b. Semakin besar nilai error referensi maka semakin besar
nilai selisih tetapi membutuhkan jumlah iterasi yang
sedikit.
c. Semakin besar nilai 𝜇0 maka iterasi akan semakin
sedikit, dan sebaliknya.