1
Pokok Bahasan
• Multilayer Networks
• Backpropagation
• Hidden Layer Representations
2
Referensi
3
Multilayer Network
4
Sigmoid Unit
5
Backpropogation : Goal
• Tujuan dari backrpopogation : untuk mencari bobot optimal
✓ Sehingga neural network dalam belajar bagaimana memetakan dengan benar sembarang data
input ke output
Propagasi maju:
hitung output y setiap instance x
Propagasi mundur:
hitung error 𝛅 setiap neuron
6
Backpropogation : Phase
• Tahap pelatihan:
✓ Propagasi maju (Feed Forward):
❑ Masukan dihitung maju mulai dari input layer hingga output layer menggunakan
fungsi aktivasi yang dipilih.
✓ Propagasi mundur (Backward Phase):
❑ Selisih antara keluaran jaringan dengan nilai target merupakan error yang terjadi.
Error tsb dipropagasi mundur.
✓ Perubahan bobot:
❑ Modifikasi bobot untuk menurunkan error.
7
Error Gradient untuk Sigmoid Unit
Sehingga :
8
Algoritma Backpropogation – Stochastic Gradient Descent
𝛿ℎ ← 𝑜ℎ (1 − 𝑜ℎ ) 𝑤ℎ,𝑘 𝛿𝑘
𝑘 ∈𝑜𝑢𝑡𝑝𝑢𝑡
4. Update setiap bobot network wi,j
𝑤𝑖,𝑗 ← 𝑤𝑖,𝑗 + ∆𝑤𝑖,𝑗 ∆𝑤𝑖,𝑗 = 𝜂𝛿𝑗 𝑥𝑖,𝑗
9
Convergence of Backpropogation
• Sifat konvergensi:
✓ Inisialisasi bobot mendekati nol;
✓ Jaringan awal mendekati linier;
✓ Memungkinkan menghadirkan banyak fungsi non-linier saat pelatihan
berlangsung;
10
Avoiding Local Minima : Momentum
• Akan menemukan local error minimum, belum tentu global
❑ Dalam prakteknya, sering bekerja dengan baik (bisa berjalan beberapa kali)
11
Contoh Penerapan dengan Momentum
Referensi : http://www.scholastictutors.webs.com/scholastic-book-neuralnetworks
12
Feed Forward
13
Backward Prop:
Calculate Local Gradient
14
Backward Prop: Update Weight
• Update weight:
wi , j (n + 1) = wi , j (n) + wi , j (n)
• Asumsi iterasi-1:
wi , j ( n + 1) = wi , j ( n) + wi , j ( n)
wi , j ( n + 1) = wi , j ( n) + wi , j ( n − 1) + j xi , j
wi , j (0) = wi , j ( n) :
wi , j (1) = wi , j ( n) + * wi , j ( n) + j xi , j
15
Backward Prop:
Update Weight
16
Backward Prop:
Update Weight
17
Backward Prop:
Update Weight
18
Pemrosesan untuk Epoch Berikutnya
19
Kemampuan yang Baik dari ANN
• Boolean functions:
✓ Setiap fungsi boolean dapat digambarkan oleh network dengan single hidden
layer;
✓ Tetapi mungkin memerlukan unit tersembunyi eksponensial (sesuai dengan jumlah
input).
• Continuous functions:
✓ Setiap fungsi kontinu terbatas, dapat diperkirakan nilai bobotnya dengan
kesalahan yang rendah, oleh jaringan dengan satu hidden layer [Cybenko 1989;
Hornik et al. 1989]
✓ Setiap fungsi dapat diperkirakan nilai bobotnya dengan suatu akurasi oleh
jaringan dengan dua hidden layer [Cybenko 1988].
20
Latihan di Kelas
21
TERIMA KASIH
22