BACKPROPAGATION
Yogiek Indra Kurniawan
Jaringan Syaraf Tiruan
yogiek@unsoed.ac.id
Universitas Jenderal Soedirman
BACKPROPAGATION
• Backpropagation merupakan sebuah metode sistematik pada
jaringan syaraf tiruan dengan menggunakan algoritma pembelajaran
yang terawasi dan biasanya digunakan oleh perceptron dengan
banyak layar lapisan untuk mengubah bobot-bobot yang ada pada
lapisan tersembunyinya.
• Backpropagation adalah pelatihan jenis terkontrol dimana
menggunakan pola penyesuaian bobot untuk mencapai nilai
kesalahan yang minimum antara keluaran hasil prediksi dengan
keluaran yang nyata. (F.Suhandi, 2009)
TAHAPAN ALGORITMA
BACKPROPAGATION
Ada 2 tahapan dalam algoritma ini yaitu:
• Perhitungan Maju
Untuk menghitung error antara keluaran actual dan target
• Perhitungan Mundur
Untuk mempropagasikan balik error tersebut untuk
memperbaiki bobot-bobot pada semua neuron yang ada
ALGORITMA PELATIHAN
• Jaringan hidden layer
• Fungsi aktivasi sigmoid biner
∆wkj= α δk zj
∆w10= α δ1 (1)=0,2 . (-0,11) . (1)=-0,022
∆w11= α δ1 (z1)=0,2 . (-0,11) . (0,55)=-0,01
∆w12= α δ1 (z2)=0,2 . (-0,11) . (0,67)=-0,01
∆w13= α δ1 (z3)=0,2 . (-0,11) . (0,52)=-0,01
• Langkah 7
Hitung factor δ unit tersembunyi berdasarkan kesalahan di setiap
unit tersembunyi zj
(j=1,2,3,…,p)
Faktor kesalahan unit tersembunyi
δj = δ_netj f’(z_netj)= δ_net zj (1-zj)
δ1 = δ_net1 z1 (1-z1)=(-0.055).0,55.(1-(0,55))=-0,01
δ2 = δ_net2 z2 (1-z2)=(0.033).0,67.(1-(0,67))=0,01
δ3 = δ_net3 z3 (1-z3)=(0.044).0,52.(1-(0,52))=0,01
∆vji = α δjxi
∆v10= α δ1 = 0,2*(-0,01)*1 = -0,002
∆v20= α δ2 = 0,2*(0,01)*1 = 0,002
∆v30= α δ3 = 0,2*(0,01)*1 = 0,002
∆v11= α δ1x1 = 0,2*(-0,01)*1 = -0,002
∆v21= α δ2x1 = 0,2*(0,01)*1 = 0,002
∆v31= α δ3x1 = 0,2*(0,01)*1 = 0,002
∆v12= α δ1x2 = 0,2*(-0,01)*1 = -0,002
∆v22= α δ2x2 = 0,2*(0,01)*1 = 0,002
∆v32= α δ3x2 = 0,2*(0,01)*1 = 0,002
Fase III : Perubahan Bobot
• Langkah 8
Perubahan bobot garis yang menuju unit keluaran