04 Multi Layer Perceptron - Compressed
04 Multi Layer Perceptron - Compressed
Mahasiswa Indonesia
- Berapa layer?
- Berapa unit di input?
- Berapa unit di output?
Algoritma backpropagasi
• Salah satu metode belajar artificial neural networks khususnya
multi layer perceptron (MLP) adalah algoritma backpropagasi
• Terdiri dari
• Propagasi Maju
• Propagasi Balik
Backpropagasi
Propogasi Maju
Propogasi Balik
Algoritma
Propagasi maju
Propagasi maju
Backpropagasi
Propogasi Maju
Propogasi Balik
Algoritma
Propagasi balik
• Using Generalized Delta Rule (GDR)
• Error yang diminimalkan GDR
target output
• Sehingga =
• Update pemberat ouput menjadi
¶E p 1 ¶
= å ( y pk - o pk ) 2
¶w hji 2 k ¶w hji
¶o pk ¶net pk
o
¶i pj ¶net pk
o
= -å ( y pk - o pk )
k ¶net pk
o
¶i pj ¶net pjh ¶w hji
¶E p
- = å ( y pk - o pk )f ko ' (net pk
o
)w kjo f j
h'
(net pjh )x pi
¶w hji k
# % %
𝛿!" = 𝑖!" (1 − 𝑖!" ) ( 𝛿!$ 𝑤$"
𝜂 = 𝑙𝑒𝑎𝑟𝑛𝑖𝑛𝑔 𝑟𝑎𝑡𝑒
𝛼 = 𝑚𝑜𝑚𝑒𝑛𝑡𝑢𝑚 𝑟𝑎𝑡𝑒
Algoritma Backpropagasi
0. Inisialisasi bobot dengan bilangan acak kecil 0 – 1
1. Pasangan Input-output
Input N = jml input
2. Normalisasi
Algoritma Backpropagasi Lanj
Lakukan propagasi maju
1. Tiap unit masukan menerima sinyal dan meneruskan ke unit
tersembunyi di atasnya