Abstract
Logic gates is a series of computers that form the base. Millions of transistors in a microprocessor
forming thousands of logic gates. Some methods or models are often used to recognize the logic gate is
the perceptron and backpropagation method. Perceptron is a network that is fast and reliable for the
class of problems that can be solved. While backpropagation is one of the Artificial Neural Network
architecture that has the learning process forward and backwards error correction. In case recognizes
logic gates, testing backpropagation method can recognize the pattern of the binary input data and
binary targets well, while the less well perceptron method in recognizing binary input data patterns and a
target binary, particularly the Ex-OR logic functions and Ex-NOR, but the method perceptron can
recognize the logic gates faster than the back propagation method, especially in the use of binary input
data and the target binary OR and NOR logic function of the number of iterations 20 both methods can’t
identify with either logic gates on the input data bipolar to the target bipolar or binary input data with
bipolar targets (hybrid).
{
1 , jika y ¿ >θ fungsi sigmoid, kemudian mengirimkan
y= 0 , jika−θ ≤ y ¿ ≤θ (3) sinyal tersebut ke semua unit output.
3) Setiap unit output (Yk, k=1,2,3,…,m)
−1 , jika y ¿ <−θ menjumlahkan bobot sinyal input,
4) Bandingkan nilai output jaringan y ditunjukkan dengan persamaan (10).
dengan target t. p
(10)
jika y ≠ t, lakukan perubahan bobot dan y ¿ k =w 0 k + ∑ z i w jk
bias, ditunjukkan dengan persamaan (4) i=1
dan persamaan (5). Dan menerapkan fungsi aktivasi untuk
¿ ¿
w i ( baru )=wi ( lama )+ α t x i (4) menghitung sinyal output-nya,
¿ (5) ditunjukkan dengan persamaan (11).
b ( baru )=b ( lama ) +α t
jika y = t, tidak ada perubahan bobot dan y k =f ( y ¿k ) (11)
bias, ditunjukkan dengan persamaan (6) c. Tahap perambatan balik (backpropagation)
dan persamaan (7). 1) Setiap unit output (Yk, k=1,2,3,…,m)
w i ( baru )=wi (lama) (6) menerima pola target yang sesuai dengan
(7) pola input pelatihan, kemudian hitung
b ( baru )=b (lama)
c. Lakukan iterasi terus-menerus hingga semua error, ditunjukkan dengan persamaan
pola memiliki output jaringan yang sama (12). (12)
dengan targetnya. Artinya bila semua ouput δ k =( t k − y k ) f '( y ¿k )
jaringan sama dengan target maka jaringan f’ adalah turunan dari fungsi aktivasi.
Kemudian hitung korelasi bobot, Gerbang OR adalah suatu rangkaian logika
ditunjukkan dengan persamaan (13). dasar yang menyatakan bahwa output-nya
∆ w jk=α δ k z j (13) akan mempunyai logika 1 jika salah satu
input-nya mempunyai logika 1 atau
Dan menghitung koreksi bias, semuanya mempunyai logika 1.
ditunjukkan dengan persamaan (14).
∆ w0 k =α δ k (14) b. Gerbang AND
Sekaligus mengirimkan δk ke unit-unit Gerbang AND adalah suatu rangkaian
yang ada di lapisan paling kanan. logika dasar yang menyatakan output-nya
2) Setiap unit tersembunyi (Zj, j=1,2,3,…,p) akan mempunyai logika 1 jika semua input-
menjumlahkan delta input-nya (dari unit- nya berlogika 1.
unit yang berada pada lapisan di
kanannya), ditunjukkan dengan c. Gerbang NOR
persamaan (15). Gerbang NOR sama seperti dengan gerbang
m OR, tetapi keluarannya adalah inverter
δ ¿ j=∑ δ k w jk (kebalikannya).
k=1 (15) d. Gerbang NAND
Untuk menghitung informasi error, Gerbang NAND sama seperti dengan
kalikan nilai ini dengan turunan dari gerbang AND, tetapi keluarannya adalah
inverter (kebalikannya).
fungsi aktivasinya, ditunjukkan dengan
persamaan (16). e. Gerbang Ex-OR
' (16)
δ =δ f ( z )
j ¿j ¿j Ex-OR adalah gerbang OR yang bersifat
ekslusif, sebab output-nya akan bernilai 0
Kemudian hitung koreksi bobot,
jika input-nya sama dan output-nya akan
ditunjukkan dengan persamaan (17). bernilai 1 jika salah 1 input-nya bernilai
∆ v jk =α δ j x i (17) berbeda.
Setelah itu, hitung juga koreksi bias,
ditunjukkan dengan persamaan (18). f. Gerbang Ex-NOR
Gerbang Ex-NOR adalah gerbang Ex-OR
∆ v 0 j=α δ j (18)
yang ditambahkan inverter sehingga tabel
d. Tahap perubahan bobot dan bias
kebenarannya cukup dengan membalikkan
1) Setiap unit output (Yk, k=1,2,3,…,m)
dilakukan perubahan bobot dan bias tabel kebenaran Ex-OR.
(j=0,1,2,…,p), ditunjukkan dengan
persamaan (19).
5. Metode Penelitian
w jk ( baru )=w jk ( lama )+ ∆ w jk (19)
Tujuan penelitian ini adalah untuk
Setiap unit tersembunyi (Zj, j=1,2,3,…,p) menganalisis perbandingan metode perceptron
dilakukan perubahan bobot dan bias dan backpropagation. Untuk mencapai tujuan
(i=0,1,2,…,n), ditunjukkan dengan tersebut, penulis akan melakukan pelatihan
persamaan (20). (training) pada pola data gerbang logika. Data
vij ( baru ) =v ij ( lama ) + ∆ v ij (20) yang digunakan yaitu data input biner dengan
2) Tes kondisi berhenti. target biner, data input bipolar dengan target
bipolar, dan data input biner dengan target
bipolar (hybrid).
4. Gerbang Logika (Logic Gates)
Data yang akan dilatih adalah data
dengan dua input dan satu target. Pengenalan
Gerbang logika (logic gates) adalah
pola dilakukan dengan cara penyesuaian nilai
rangkaian dengan satu atau lebih sinyal
bobot. Penghentian penyesuaian bobot dalam
masukan, tetapi hanya menghasilkan satu sinyal
pengenalan pola apabila kuadrat error mencapai
berupa tegangan tinggi atau tegangan rendah
daripada target error yang ditentukan.
sebagai sinyal keluaran. Gerbang logika
merupakan dasar pembentukan sistem digital.
6. Hasil dan Analisa
Gerbang logika yang digunakan diantaranya
OR, AND, NOR, NAND, Ex-OR, dan Ex-NOR
Pelatihan dan pengujian data dengan
di mana [1]:
membandingkan metode perceptron dan
metode backpropagation dengan menggunakan
a. Gerbang OR
tiga pola data yang berbeda serta masing-
masing target yang berbeda pula. Adapun
bentuk pola data pertama yang akan dilatih dan pola data yang diberikan pada fungsi logika Ex-
diuji ditunjukkan pada Tabel 1 dengan data OR dan Ex-NOR.
input biner dan data target biner. Selanjutnya yaitu menguji bentuk pola
dengan data input bipolar dengan target bipolar
Tabel 1(a). Data Input Biner dengan Data Target yang ditunjukkan pada Tabel 2.
Biner
Data Tabel 2(a). Data Input Bipolar dengan Data Target
Data Target Bipolar
Input
Ex- Ex-
Data
X1 X2 OR AND NOR NAND Data Target
OR NOR
Input
0 0 0 0 1 1 0 Ex- Ex-
1 0 1 0 0 1 1 X1 X2 OR AND NOR NAND
OR NOR
0 1 1 0 0 1 1
-1 -1 -1 -1 1 1 -1 1
1 1 1 1 0 0 01 -1 1 -1 -1 1 1 -1
-1 1 1 -1 -1 1 1 -1
Pola data pada Tabel 1(a) adalah pola 1 1 1 1 -1 -1 -1 1
data dengan dua data input dan satu data target
yang bervariasi dengan learning rate = 0.7 Pola data pada Tabel 2(a) adalah pola
maksimum epoch = 150000. Adapun hasil data dengan dua data input dan satu data target
pelatihan dan pengujian dari data pada Tabel yang bervariasi dengan learning rate dan
1(a) adalah dapat dilihat pada Tabel 1(b). maksimum epoch yang sama pada pengujian
(Lampiran). data sebelumnya, yaitu learning rate = 0.7
Dari Tabel 1(b) dapat dilihat bahwa maksimum epoch = 150000. Adapun hasil
hasil pengujian perbandingan antara metode pelatihan dan pengujian dari data pada Tabel
perceptron dengan metode backpropagation 2(a) adalah dapat dilihat pada Tabel 2(b).
dengan input biner dan target biner (Lampiran).
mendapatkan hasil yang berbeda. Di mana pada Dari Tabel 2(b) dapat dilihat bahwa
penggunaan metode perceptron pada target hasil pengujian perbandingan antara metode
error 0.1 dengan fungsi logika OR dan NOR-lah perceptron dengan metode backpropagation
yang memiliki jumlah iterasi atau epoch yang dengan input bipolar dan target bipolar
paling kecil yaitu pada iterasi 20. Sedangkan mendapatkan hasil yang sama, yaitu sama-sama
dengan metode backpropagation dengan target tidak dapat mengenali pola data yang diberikan.
error yang sama, pada fungsi logika NOR-lah Selanjutnya yaitu menguji bentuk pola
yang memiliki jumlah iterasi atau epoch yang dengan data input biner dengan target bipolar
paling kecil yaitu pada iterasi 43. Adapun grafik (hybrid) yang ditunjukkan pada Tabel 3.
perbandingan penurunan kuadrat error dengan
metode perceptron dan bakpropagation pada Tabel 3(a). Data Input Biner dengan Data Target
fungsi logika NOR dengan target error 0.1 Bipolar (Hybrid)
ditunjukkan pada Gambar 1. Data
Data Target
Input
Perceptron Backpropagation Ex- Ex-
X1 X2 OR AND NOR NAND
OR NOR
0 0 -1 -1 1 1 -1 1
1 0 1 -1 -1 1 1 -1
0 1 1 -1 -1 1 1 -1
1 1 1 1 -1 -1 -1 1
7. Kesimpulan
[1] Andrian, Yudhi (2011). “Sistem Digital”. [6] Oktaviani, Cici dan Afdal (2013). “Prediksi
Penerbit Andi, Yogyakarta. Curah Hujan Bulanan Menggunakan
Jaringan Syaraf Tiruan dengan Beberapa
[2] Andrian, Yudhi dan M. Rhifky Wayahdi Fungsi Pelatihan Backpropagation”. Jurnal
(2014). “Analisis Kinerja Jaringan Saraf Fisika Unand, Vol. 2, No. 4, Oktober.
Tiruan Metode Backpropagation dalam
Memprediksi Cuaca di Kota Medan”. [7] Priya, et al. (2014). “Time Series Analysis of
SNIKOM, Laguboti. Forecasting Indian Rainfall”. International
Journal of Innovations & Advancement in
[3] Baldassi, Carlo (2012). “Generalization Computer Science (IJIACS), Volume 3,
Learning in a Perceptron With Issue 1, April.
Binarysynapses”. Torino, Italy.
[8] Sutojo, T., et al. (2010). “Kecerdasan
Buatan”. Penerbit Andi, Yogyakarta.
Lampiran:
Tabel 1(b). Hasil Pengujian Data Input Biner dengan Data Target Biner
Tabel 2(b). Hasil Pengujian Data Input Bipolar dengan Data Target Bipolar
Tabel 3(b). Hasil Pengujian Data Input Bimer dengan Data Target Bipolar