Anda di halaman 1dari 10

METODE ADELINE

LAPORAN
DISUSUN UNTUK MEMENUHI TUGAS
MATAKULIAH BIOMEDIKA
Yang Diampu oleh Bapak Kunto Aji Wibisono, ST., MT

oleh:
Heni Astutik 140431100020
M. Ilham Rasyidi 140431100061

PROGRAM STUDI S1 TEKNIK ELEKTRO


FAKULTAS TEKNIK
UNIVERSITAS TRUNOJOYO MADURA
November 2017
Latar Belakang
Algoritma LMS (least mean square) adalah suatu algoritma pembelajaran dari
neural network yang diperkenalkan oleh Widrow dan Hoff pada tahun 1959. Algoritma
ini juga memiliki banyak nama seperti Widrow-Hoff rule dan juga delta rule. Arsitektur
LMS berbasis pada simple adaptive linier combiner. Algorithma LMS akan mengupdate
bobot (weight) dari adaptive linear combiner. Yang mana dalam mengupdate bobot
tersebut terdapat suatu nilai µ atau disebut learning rate parameter. Nilai ini untuk
menentukan besarnya langkah atau kecepatan update bobot dengan arah gradien negatif.
Nilai µ yang digunakan umumnya lebih dari 0. Pemilihan µ yang terlalu kecil dapat
menyebabkan perubahan nilai bobot yang kecil sehingga kecepatan belajarnya menjadi
lama karena membutuhkan lebih banyak iterasi untuk mencapai suatu keadaan
convergen. Sedangkan bila nilai µ yang dipilih terlalu besar maka akan menyebabkan
langkah perubahan yang besar sehingga proses belajar tersebut sulit mencapai keadaan
stabil.
1. Desain Topologi Struktur Simple Adaptive Liner Combiner dengan 4 input

Gambar 1. Topologi Simple Adaptive Linier Combiner

Gambar 2. Mean Square Error (MSE)

1
Dari gambar diatas, terdapat 4 input x1,x2,x3 dan x4 serta satu input bias
yang masing-masing memiliki bobot (w). Output (v) didapat dari penjumlahan
setiap input yang dikalikan dengan masing-masing bobotnya. Output ini kemudian
dibandingkan dengan desired output (d) atau disebut target yang akan menghasilkan
nilai error (e). Error inilah yang nantinya akan digunakan pada algoritma LMS
untuk melakukan koreksi dengan mengupdate bobot dari masing-masing input.
Setiap satu siklus mulai dari penghitungan input sampai dengan diperolehnya bobot
baru dinamakan satu kali iterasi atau dilambangkan dengan k sehingga akan muncul
nilai ouput v(k) yaitu output pada iterasi ke-k, d(k) yaitu output yang diharapkan
pada iterasi ke-k serta e(k) yaitu error yang terjadi pada iterasi ke-k.
Secara keseluruhan persamaan-persamaan ANN (Artificial Neural Network)
menggunakan MSE dijabarkan dibawah ini.
 Error

 Learning rate constant

 Update nilai w (weight)

 Update nila θ (threshold)

 Binary sigmoid

Adapun algoritma singkat LMS dapat dilakukan dengan langkah-langkah


berikut ini.
 Atur nilai nilai k=1, inisialisasi vektor bobot w(k=1), dan tetapkan nilai
dari µ0
 Hitung learning rate parameter sebagai menggunakan rumus persamaan.
 Hitung error.
 Update bobot “w” menggunakan rumus persamaan untuk nilai i=1,2,..,n.
 Jika telah convergen maka berhenti jika tidak maka atur kk+!,
kemudian ulangi dari poin 2.

2
PERTANYAAN
1. Lakukan perhitungan dan analisa secara matematis sehingga bisa didapatkan
persamaan update nilai threshold dengan formulasi:
θ ( k +1 )=θ ( k ) + μ( ∇ J ( θ ))

¿ θ ( k ) + μe (k )
2. Desainlah sebuah program aplikasi dengan memanfaatkan sample code tersebut,
untuk pemodelan gerbang logika AND, OR dan XOR 4 input dengan menggunakan
metode Adeline!

3
PEMBAHASAN

1. Langkah-langkah melakukan persamaan update nilai threshold


 Memenutukan nilai error  e ( k )=d ( k ) −〈 w ( k ) x ( k ) −θ( k) 〉
1 2
 Menentukan rumus J (θ )  J (θ )= E {e ( k ) }
2
2
1 ∂e ( k ) ⃓
 Menentukan rumus kesetaraan ∇ J ( θ )  ∇ J (θ) ≈ ⃓ θ=θ( k)
2 ∂θ
 Memasukkan nilai error
1 ∂ 2
∇ J (θ) = [d ( k )−〈 w ( k ) x ( k )−θ (k ) 〉 ]
2 ∂ θ(k )
 Melakukan perhitukan nilai error kuadrat dengan cara dimisalkan
[ a−( b−c ) ]=a 2−2 a ( b−c )+(b2 −2. b .c +c 2 ) dengan nilai a = d (k ) , b =
w ( k ) x ( k ) , dan c= θ( k) sehingga hasilnya seperti dibawah ini.
2
d (k )−2 ( d ( k ) ) ( w ( k )−θ ( k ) ) +{¿
1 ∂
∇ J ( θ )= ¿
2 ∂ θ(k)
d 2 (k )−2 d ( k ) w ( k )+ 2d (k )θ ( k )+ ¿
1 ∂
∇ J (θ)= ¿
2 ∂ θ(k)
 Nilai yang didapat diturunkan terhadap θ , jadi yang tidak ada nilai θ
maka menjadi nol
1 ∂
∇ J (θ) = [2 d (k )θ ( k )−2 w ( k ) x ( k ) θ ( k ) +θ2 ( k ) ]
2 ∂ θ(k )
1
∇ J ( θ ) = [2 d (k )−2 w ( k ) x ( k ) +2θ ( k ) ]
2
∇ J ( θ ) =d (k )−w ( k ) x ( k )+ θ ( k )
 Kembalikan nilai yang didapatkan ke nilai error
∇ J ( θ ) =d ( k )−w ( k ) x ( k )+θ ( k )=e(k)
 Persamaan yang telah didapatkan masukkan ke rumus θ ( k +1 )
θ ( k +1 )=θ ( k ) + μ( ∇ J ( θ ))
¿ θ ( k ) + μe (k )
Jadi persamaan update untuk nilai threshold θ ( k +1 )=θ ( k ) + μe( k)

4
2. program aplikasi pada pemodelan gerbang logika AND, OR dan XOR 4 input
dengan menggunakan metode Adeline!
Analisa dan Pembahasan
 Gerbang AND
Truth Table (Tabel Kebenaran)
X1 X2 X3 X4 Y
0 0 0 0 0
0 0 0 1 1
0 0 1 0 1
0 0 1 1 0
0 1 0 0 1
0 1 0 1 0
0 1 1 0 0
0 1 1 1 1
1 0 0 0 1
1 0 0 1 0
1 0 1 0 0
1 0 1 1 1
1 1 0 0 0
1 1 0 1 1
1 1 1 0 1
1 1 1 1 0

Tampilan

Gambar di atas merupakan hasil dari penggunaan fungsi ANN LSM pada
gerbang logika AND dengan nilai masukan input error referensi sebesar 0.01,
Miu sebesar 0.75, dan untuk nilai tau sebesar 100. Dan nilai w dan θ yang
berbeda beda karena menggunakan nilai random pada program di source code.
Untuk jumlah iterasi pada percobaaan ini sebanyak 6 iterasi. Dan untuk nilai

5
outputannya yang di dapat ini merupakan selisih dari nilai output di tabel
kebenaran dengan output yang menggunakan rumus Binary sigmoid.
Pengaruh nilai error referensi pada percobaaan ini jika nilai μ dan τ
tetap maka akan berpengaruh terhadap jumlah iterasi. Jika error referensi kecil,
maka jumlah iterasi semakin banyak, begitu juga sebaliknya.
Pengaruh nilai μ pada percobaaan ini jika nilai error referensi dan τ
tetap maka akan berpengaruh terhadap jumlah iterasi dan θ pengaruhnya karena
adanya update w dan θ yang telah sesuai dengan rumus yang dimasukkan di
source code. Kesimpulannya Jika μ besar, maka jumlah iterasi semakin sedikit
dan θ semakin besar, begitu juga sebaliknya.
Pengaruh nilai τ pada percobaaan ini jika nilai error referensi dan μ
tetap maka akan berpengaruh terhadap jumlah iterasi dan θ pengaruhnya karena
adanya update w dan θ yang telah sesuai dengan rumus yang dimasukkan di
source code. Jika τ besar, maka jumlah iterasi semakin sedikit dan θ
semakin besar, begitu juga sebaliknya.

 GERBANG OR
Truth Table (Tabel Kebenaran)
X1 X2 X3 X4 Y
0 0 0 0 0
0 0 0 1 1
0 0 1 0 1
0 0 1 1 1
0 1 0 0 1
0 1 0 1 1
0 1 1 0 1
0 1 1 1 1
1 0 0 0 1
1 0 0 1 1
1 0 1 0 1
1 0 1 1 1
1 1 0 0 1
1 1 0 1 1
1 1 1 0 1
1 1 1 1 1

Tampilan

6
Gambar di atas merupakan hasil dari penggunaan fungsi ANN LSM pada
gerbang logika OR dengan nilai masukan input error referensi sebesar 0.01, Miu
sebesar 0.75, dan untuk nilai tau sebesar 100. Dan nilai w dan θ yang berbeda
beda karena menggunakan nilai random pada program di source code. Untuk
jumlah iterasi pada percobaaan ini sebanyak 4 iterasi. Dan untuk nilai
outputannya yang di dapat ini merupakan selisih dari nilai output di tabel
kebenaran dengan output yang menggunakan rumus Binary sigmoid.
Pengaruh nilai error referensi pada percobaaan ini jika nilai μ dan τ
tetap maka akan berpengaruh terhadap jumlah iterasi. Jika error referensi kecil,
maka jumlah iterasi semakin banyak, begitu juga sebaliknya.
Pengaruh nilai μ pada percobaaan ini jika nilai error referensi dan τ
tetap maka akan berpengaruh terhadap jumlah iterasi dan θ pengaruhnya karena
adanya update w dan θ yang telah sesuai dengan rumus yang dimasukkan di
source code. Kesimpulannya Jika μ besar, maka jumlah iterasi semakin sedikit
dan θ semakin besar, begitu juga sebaliknya.
Pengaruh nilai τ pada percobaaan ini jika nilai error referensi dan μ
tetap maka akan berpengaruh terhadap jumlah iterasi dan θ pengaruhnya karena
adanya update w dan θ yang telah sesuai dengan rumus yang dimasukkan di
source code. Jika τ besar, maka jumlah iterasi semakin sedikit dan θ
semakin besar, begitu juga sebaliknya.

7
 GERBANG XOR
Truth Table (Tabel Kebenaran)
X1 X2 X3 X4 Y
0 0 0 0 0
0 0 0 1 1
0 0 1 0 1
0 0 1 1 0
0 1 0 0 1
0 1 0 1 0
0 1 1 0 0
0 1 1 1 1
1 0 0 0 1
1 0 0 1 0
1 0 1 0 0
1 0 1 1 1
1 1 0 0 0
1 1 0 1 1
1 1 1 0 1
1 1 1 1 0

Gambar di atas merupakan hasil dari penggunaan fungsi ANN LSM pada
gerbang logika XOR dengan nilai masukan input error referensi sebesar 0.01,
Miu sebesar 0.75, dan untuk nilai tau sebesar 100. Dan nilai w dan θ yang
berbeda beda karena menggunakan nilai random pada program di source code.
Untuk jumlah iterasi pada percobaaan ini sebanyak 2 iterasi. Dan untuk nilai
outputannya yang di dapat ini merupakan selisih dari nilai output di tabel
kebenaran dengan output yang menggunakan rumus Binary sigmoid.
Pengaruh nilai error referensi pada percobaaan ini jika nilai μ dan τ
tetap maka akan berpengaruh terhadap jumlah iterasi. Jika error referensi kecil,
maka jumlah iterasi semakin banyak, begitu juga sebaliknya.

8
Pengaruh nilai μ pada percobaaan ini jika nilai error referensi dan τ
tetap maka akan berpengaruh terhadap jumlah iterasi dan θ pengaruhnya karena
adanya update w dan θ yang telah sesuai dengan rumus yang dimasukkan di
source code. Kesimpulannya Jika μ besar, maka jumlah iterasi semakin sedikit
dan θ semakin besar, begitu juga sebaliknya.
Pengaruh nilai τ pada percobaaan ini jika nilai error referensi dan μ
tetap maka akan berpengaruh terhadap jumlah iterasi dan θ pengaruhnya karena
adanya update w dan θ yang telah sesuai dengan rumus yang dimasukkan di
source code. Jika τ besar, maka jumlah iterasi semakin sedikit dan θ
semakin besar, begitu juga sebaliknya.