Anda di halaman 1dari 2

Nama: Mohamad Khotibul Umam

Nim: 23821001
Backpropagation adalah metode yang digunakan dalam jaringan saraf tiruan (neural networks)
untuk melatih model. Tujuannya adalah untuk mengoptimalkan bobot-bobot (weights) dari
neuron-neuron dalam jaringan agar model dapat mempelajari pola dari data yang diberikan.
Berikut adalah ringkasan singkat tentang metode backpropagation beserta contoh perhitungannya
dalam tiga langkah:

1. Feedforward (Penerusan)
Pada langkah ini, data input diteruskan melalui jaringan untuk menghasilkan prediksi. Setiap
neuron dalam jaringan mengalami proses aktivasi berdasarkan bobot-bobotnya.

2. Perhitungan Kesalahan (Error Calculation).


Selisih antara prediksi model dengan nilai sebenarnya (ground truth) diukur menggunakan fungsi
kerugian (loss function). Fungsi ini mengukur seberapa besar kesalahan prediksi model terhadap
data yang diberikan.

3. Backpropagation (Penyampaian Balik)


Pada tahap ini, kesalahan dikembalikan ke belakang melalui jaringan untuk menghitung gradien
(derivative) dari fungsi kerugian terhadap setiap bobot dalam jaringan.
Bobot-bobot ini diperbarui dengan mengurangkan gradien dari setiap bobot dengan suatu nilai
yang disebut laju pembelajaran (learning rate). Proses ini dilakukan untuk setiap layer dalam
jaringan, yang memungkinkan model untuk "mempelajari" dari kesalahan prediksi sebelumnya.

Contoh Perhitungan (3 Langkah):


Langkah 1: Feedforward**
- Input: x1 = 0.5, x2 = 0.8
- Bobot pada neuron 1: w1 = 0.2, w2 = 0.4
- Bobot pada neuron 2: w3 = 0.6, w4 = 0.1

Prediksi:
z1 = (x1 * w1) + (x2 * w2) = (0.5 * 0.2) + (0.8 * 0.4) = 0.1 + 0.32 = 0.42
z2 = (x1 * w3) + (x2 * w4) = (0.5 * 0.6) + (0.8 * 0.1) = 0.3 + 0.08 = 0.38

Langkah 2: Perhitungan Kesalahan**


- Nilai Sebenarnya (ground truth): y = 0.9
- Fungsi Kerugian (Loss Function): Loss = (1/2) * (y - z2)^2

Loss = (1/2) * (0.9 - 0.38)^2 = 0.25


Langkah 3: Backpropagation
- Menghitung gradien Loss terhadap bobot pada neuron 2 (w3 dan w4) menggunakan chain rule:
- ∂Loss/∂z2 = -(y - z2) = 0.52
- ∂z2/∂w3 = x1 = 0.5
- ∂z2/∂w4 = x2 = 0.8

Gradien terhadap w3:


∂Loss/∂w3 = ∂Loss/∂z2 * ∂z2/∂w3 = 0.52 * 0.5 = 0.26

Gradien terhadap w4:


∂Loss/∂w4 = ∂Loss/∂z2 * ∂z2/∂w4 = 0.52 * 0.8 = 0.416

Dengan gradien ini, kita dapat memperbarui bobot w3 dan w4 untuk meminimalkan loss dan
melatih jaringan. Proses ini akan diulangiterasi berikutnya untuk mengoptimalkan semua bobot
dalam jaringan.
Refrensi:
Rosenblatt, F. (1957). "The Perceptron, a Perceiving and Recognizing Automaton." Project Para:
An Experiment in Automatic Understanding.

Anda mungkin juga menyukai