Anda di halaman 1dari 33

DASAR JARINGAN SYARAF TIRUAN

disusun oleh:
Meli Tri Yanti G1A018008
Hanifah Nur Safitri G1A018019
Hafiz Hidayat G1A018033
Wina Salsabilla Fandini G1A018038
Rahmat Fikri Wahyudi G1A018054
Harizaldy Cahya Pratama G1A018057
Muhammad Reyhan Firdaus G1A018067
Nabilah Ghinanti Suci G1A018078
Raju Wahyudi Pratama G1A018091

PROGRAM STUDI INFORMATIKA


FAKULTAS TEKNIK
UNIVERSITAS BENGKULU
2021
DASAR JST

A. Pengertian JST
Meli Tri Yanti (G1A018008)
Jaringan saraf tiruan (JST) (bahasa Inggris:
artificial neural network; ANN, atau simulated neural
network (SNN), atau neural network (NN)), adalah
jaringan dari sekelompok unit pemroses kecil yang
dimodelkan berdasarkan sistem saraf manusia. JST
merupakan sistem adaptif yang dapat mengubah
strukturnya untuk memecahkan masalah berdasarkan
informasi eksternal maupun internal yang mengalir
melalui jaringan tersebut. Oleh karena sifatnya yang
adaptif, JST juga sering disebut dengan jaringan
adaptif.
Secara sederhana, JST adalah sebuah alat
pemodelan data statistik non-linier. JST dapat
digunakan untuk memodelkan hubungan yang
kompleks antara input dan output untuk menemukan
pola-pola pada data. Menurut suatu teorema yang
disebut "teorema penaksiran universal", JST dengan
minimal sebuah lapis tersembunyi dengan fungsi
aktivasi non-linear dapat memodelkan seluruh fungsi
terukur Boreal apapun dari suatu dimensi ke dimensi
lainnya. Jaringan Syaraf Tiruan (JST) merupakan
suatu sistem pemrosesan informasi yang mempunyai
karakteristik menyerupai jaringan syaraf
biologi(JSB). JST tercipta sebagai suatu generalisasi
model matematis dari pemahaman manusia (human
cognition) yang didasarkan atas asumsi sebagai
berikut:
1. Pemrosesan informasi terjadi pada elemen
sederhana yang disebut neuron.
2. Sinyal mengalir diantara sel saraf/neuron melalui
suatu sambungan penghubung.
3. Setiap sambungan penghubung memiliki bobot
yang bersesuaian. Bobot ini akan digunakan
untuk menggandakan / mengalikan sinyal yang
dikirim melaluinya.
4. Setiap sel syaraf akan menerapkan fungsi
aktivasi terhadap sinyal hasil penjumlahan
berbobot yang masuk kepadanya untuk
menentukan sinyal keluarannya.

Model dari struktur neuron jaringan syaraf tiruan,


berikut:
Gambar 1 Model Struktur Jaringan Syaraf
Tiruan

Gambar 2 Model Struktur Jaringan Syaraf


Tiruan

Jaringan syaraf tiruan dapat belajar dari


pengalaman, melakukan generalisasi atas contoh-
contoh yang diperolehnya dan mengabstraksi
karakteristik esensial masukan bahkan untuk data
yang tidak relevan. Algoritma untuk JST beroperasi
secara langsung dengan angka sehingga data yang
tidak numerik harus diubah menjadi data numerik.
JST tidak diprogram untuk menghasilkan keluaran
tertentu. Semua keluaran atau kesimpulan yang
ditarik oleh jaringan didasarkan pada pengalamannya
selama mengikuti proses pembelajaran. Pada proses
pembelajaran, ke dalam JST dimasukkan pola-pola
masukan (dan keluaran) lalu jaringan akan diajari
untuk memberikan jawaban yang bisa diterima. Pada
dasarnya karakteristik JST ditentukan oleh:

1. Pola hubungan antar neuron (disebut arsitektur


jaringan)
2. Metode penentuan bobot-bobot sambungan
(disebut dengan pelatihan atau proses belajar
jaringan)
3. Fungsi aktivasi
B. Komponen Utama JST
Wina Salsabilla Fandini (G1A018038)
Terdapat beberapa tipe jaringan syaraf,
namun, hampir semuanya memiliki komponen-
komponen yang sama. Seperti halnya otak manusia,
jaringan syaraf juga terdirindari beberapa neuron, dan
ada hubungan antara neuron-neuron tersebut.
Neuron-neuron tersebut akan mentransformasikan
informasi yang diterima melalui sambungan
keluarnya menuju ke neuron-neuron yang lain. Pada
jaringan syaraf, hubungan ini dikenal dengan nama
bobot. Informasi tersebut disimpan pada suatu nilai
tertentu pada bobot tersebut.

Neuron buatan sebenarnya mirip dengan sel


neuron biologis. Neuron-neuron buatan tersebut
bekerja dengan cara yang sama pula dengan neuron-
neuron biologis. Informasi (input) akan dikirim ke
neuron dengan bobot kedatangan tertentu. Input ini
akan diproses oleh suatu fungsi perambatan yang
akan menjumlahkan nilai-nilai semua bobot yang
yang datang. Hasil penjumlahan ini kemudian akan
dibandingkan dengan suatu nilai ambang (threshold)
tertentu melalui fungsi aktivasi setiap neuron. Fungsi
aktivasi adalah filter non-linear terhadap hasil
perhitungan dari input dan bobot. Apabila input
tersebut melewati suatu nilai ambang tertentu, maka
neuron tersebut akan diaktifkan. Namun, jika input
tersebut tidak melewati suatu nilai ambang tertentu,
maka neuron tersebut tidak akan diaktifkan. Apabila
neuron tersebut diaktifkan, maka neuron tersebut
akan mengirimkan output melalui bobot-bobot
outputnya ke semua neuron yang berhubungan
dengannya. Demikian seterusnya.

Pada jaringan syaraf, neuron-neuron akan


dikumpulkan dalam lapisan-lapisan (layer) yang
disebut dengan lapisan neuron (neuron layers).
Biasanya neuron-neuron pada satu lapisan akan
dihubungkan dengan lapisan-lapisan sebelum dan
sesudahnya (kecuali lapisan input dan lapisan
output). Informasi yang diberikan pada jaringan
syaraf akan dirambatkan dari lapisan ke lapisan,
mulai dari lapisan input sampai ke lapisan output
melalui lapisan yang lainnya, yang sering dikenal
dengan nama lapisan tersembunyi (hidden layer).
Beberapa jaringan syaraf ada juga yang tidak
memiliki lapisan tersembunyi, dan ada juga jaringan
syaraf dimana neuron-neuronnya disusun dalam
bentuk matriks.

C. Fungsi Aktivasi
Muhammad Reyhan Firdaus (G1A018067), Raju Wahyudi
Pratama (G1A018091)
Ada 3 fungsi aktivasi yang paling umum
yaitu sigmoid function, hyperbolic
tangent, dan rectified linear unit (ReLU). Berikut
adalah penjelasannya.
a. Sigmoid atau Logistic Function.
Fungsi ini berada di antara nilai 0 hingga 1
sehingga biasanya digunakan untuk memprediksi
model probabilitas yang outputnya ada di kisaran
0 dan 1. Dengan kemiringan yang halus (smooth
gradient) memungkinkan Gradient
Descent (algoritma pengoptimalan yang mampu
menemukan solusi optimal untuk berbagai
masalah) berprogres pada setiap langkahnya. 
Selain itu, fungsi sigmoid memberikan nilai
prediksi yang lebih jelas. Dari gambar di bawah,
perhatikan bahwa nilai X di bawah -2 atau di atas
2 cenderung memberikan nilai prediksi yang
sangat dekat dengan 0 atau 1.
b. Hyperbolic Tangent (tanh)
Sama seperti fungsi sigmoid, fungsi tanh
berbentuk S, kontinu, dan dapat dibedakan.
Perbedaannya adalah nilai keluarannya berkisar
dari -1 hingga 1. Rentang tersebut cenderung
membuat keluaran setiap lapisan kurang lebih
berpusat di sekitar 0 pada awal pelatihan
sehingga dapat membantu mempercepat
konvergensi [4]. Sifat zero centered ini juga
membuat fungsi ini lebih mudah dalam
memodelkan masukan yang memiliki nilai sangat
negatif, netral, dan sangat positif.

c. Rectified Linear Unit (ReLU) 


Fungsi ReLU bersifat kontinu meski
kemiringannya berubah secara tiba-tiba dan nilai
turunannya bernilai 0 pada z < 0. Akan tetapi,
fungsi ini bekerja dengan sangat baik dan
membuat jaringan bekerja secara efisien sehingga
mempercepat waktu komputasi. Karena hal
inilah, fungsi aktivasi ini sering digunakan
sebagai fungsi aktivasi default pada jaringan saraf
tiruan/ANN. 

Beberapa fungsi aktivasi dan


turunannya ditunjukkan pada gambar berikut.

Jaringan neural hampir selalu memiliki


fungsi aktivasi yang sama di semua lapisan
tersembunyi.
Fungsi aktivasi yang digunakan dalam
lapisan tersembunyi biasanya dipilih berdasarkan
jenis arsitektur jaringan saraf.

Model jaringan neural modern dengan


arsitektur umum, seperti MLP dan CNN, akan
menggunakan fungsi aktivasi ULT, atau ekstensi.

Jaringan berulang masih sering


menggunakan fungsi aktivasi Tanh atau sigmoid, atau
bahkan keduanya. Misalnya, LSTM biasanya
menggunakan aktivasi Sigmoid untuk koneksi
berulang dan aktivasi Tanh untuk keluaran.

 Multilayer Perceptron (MLP): Fungsi aktivasi


ULT.

 Convolutional Neural Network (CNN): fungsi


aktivasi ULT.

 Jaringan Neural Berulang : Fungsi aktivasi Tanh


dan / atau Sigmoid.
Jika Anda tidak yakin fungsi aktivasi mana
yang akan digunakan untuk jaringan Anda, coba
beberapa dan bandingkan hasilnya.

Gambar di bawah merangkum cara memilih


fungsi aktivasi untuk lapisan tersembunyi model
jaringan neural Anda.

D. Forward dan Backward Propagation


Hanifah Nur Safitri (G1A018019), Rahmat Fikri Wahyudi
(G1A018054)
a. Forward Propagation
Propagasi maju (atau forward pass)
mengacu pada kalkulasi dan penyimpanan
variabel perantara (termasuk keluaran) untuk
jaringan saraf dalam urutan dari lapisan masukan
ke lapisan keluaran. Misal diansumsikan sebuah
contoh inputnya adalah x∈Rd dan bahwa lapisan
tersembunyi tidak menyertakan istilah bias.
Di sini variabel perantara adalah:

z=W(1)x

dimana W(1)∈Rh×d adalah parameter bobot lapisan


tersembunyi. Setelah menjalankan variabel
perantara z∈Rh melalui fungsi aktivasi ϕ
kemudian didapatkan vektor panjang aktivasi
tersembunyi h,

h=ϕ(z)

Variabel tersembunyi h juga merupakan variabel


perantara. Dengan asumsi bahwa parameter dari
lapisan keluaran hanya memiliki
beratW(2)∈Rq×h, maka kita bisa mendapatkan
variabel lapisan keluaran dengan panjang
vektor q:

o=W(2)h

Dengan asumsi bahwa fungsi kerugian


adalah ll dan contoh labelnya adalah yy, kami
kemudian dapat menghitung istilah kerugian
untuk satu contoh data,

L=l(o,y)

Menurut definisi L2 regularisasi, diberi


hyperparameter λ, istilah regularisasi adalah

s=λ/2(∥W(1)∥2f+∥W(2)∥2f)

di mana norma matriks Frobenius


adalah L2L2norma diterapkan setelah meratakan
matriks menjadi vektor. Terakhir, kerugian
reguler model pada contoh data yang diberikan
adalah:

J=L+s

J sebagai fungsi tujuan dalam grafik


propagasi maju berikut:
Gambar 1 Grafik komputasi Forward
Propagation

Forward propagation adalah proses


perhitungan secara “maju” dari input
(disimbolkan x) hingga diperoleh output model
(disimbolkan y). Misal pada ilustrasi di bawah,
adalah proses forward propagation dari
input x menuju y.

Untuk perhitungannya, nilai y1 diperoleh


dengan menghitung nilai z1 terlebih dahulu
(perhitungan linier).
z 1=w 11 x 1+ w 21 x 2+w 31 x 3+b 1
Setelah diperoleh z1 , output prediksi y1 diperoleh
dengan menerapkan fungsi aktivasi terhadap z1
y 1=σ( z 1)
Perhitungan untuk semua y secara umum
bisa menggunakan rumus:
N
yj=σ(∑ wij x i +b j ¿
i=1

Rumus di atas, sangat penting untuk dipahami,


untuk penjelasannya simbol-simbolnya:
 Simbol b 1 menunjukkan nilai bias. Nilai bias ini
mirip dengan nilai bobot hanya saja tidak
dikalikan dengan input. Tujuannya agar garis
persamaan bisa lebih kompleks (tidak selalu
melewati titik origin).
 Semua nilai bobot w dan bias b awalnya
diberikan nilai random, dan diperbarui nilainya
dengan proses backprop untuk meningkatkan
kualitas model. Jika diperhatikan kita menamai
simbol w ij berarti bobot yang menghubungkan
neuron input nomor i ke neuron output nomor j.
 N menunjukkan banyak neuron di layer sebelah
kiri (layer input).
 Simbol σ() (sigma) adalah simbol dari fungsi
aktivasi. Artinya, setelah proses perkalian
input x dan bobot w lalu dilakukan penjumlahan
semua, langkah selanjutnya adalah mengenai
hasil perhitungan tersebut dengan fungsi aktivasi.
Ada banyak fungsi aktivasi yang dapat dipilih
salah satunya fungsi aktivasi sigmoid yang
bentuknya seperti ini:

1
σ(x) =
1+ e−x
y1 adalah nilai prediksi, atau nilai yang
dihasilkan oleh model JST kita. Seperti
disebutkan sebelumnya setiap data yang masuk
memiliki label kelas atau nilai y yang
diharapkan, misalnya untuk data X,  kita ingin
model bernilai berikut (variabel t adalah nilai
target label kelas yang sebenarnya):
[t 1=0, t 2=1]
Dari sana tampak perbedaan nilai prediksi kita
(y) dengan nilai target (t). Kita bisa menghitung
seberapa melenceng prediksi kita menggunakan
rumus untuk menghitung error. Salah satunya
adalah dengan rumus Mean Square Error (MSE):

n
1
Error = ∑
n i=1
(target 1−prediksi 1)2

rumus tersebut menghitung selisih nilai target


dan prediksi, mengkuadratkannya, lalu merata-
ratanya (dijumlah lalu dibagi n). Nilai n di sana
adalah banyak datanya
Karena tujuan JST adalah untuk menghasikan
nilai prediksi y yang semirip mungkin dengan t,
maka dapat disebut juga tujuan dari JST
adalah meminimalkan nilai error E.
b. Backward Propagation
Propagasi mundur mengacu pada metode
penghitungan gradien parameter jaringan saraf.
Pada metode ini melintasi jaringan dalam urutan
terbalik, dari keluaran ke lapisan masukan, sesuai
dengan aturan rantai dari kalkulus. Algoritme
menyimpan variabel perantara (turunan parsial)
yang diperlukan saat menghitung gradien
sehubungan dengan beberapa
parameter. Asumsikan bahwa kita memiliki
fungsiY=f(X) dan Z=g(Y) dimana input dan
outputnya X,Y,Z adalah tensor bentuk
arbitrer. Dengan menggunakan aturan rantai, kita
dapat menghitung turunan dari Z dengan
hormat X melalui

∂Z/∂X = prod(∂Z/∂Y, ∂Y/∂X)


Ingatlah bahwa parameter jaringan sederhana
dengan satu lapisan tersembunyi, adalah W(1)
dan W(2). Tujuan dari propagasi mundur adalah
untuk menghitung gradient
∂J/∂W(1) dan ∂J/∂W(2). Untuk mencapai ini,
diterapkan aturan rantai dan menghitung, pada
gilirannya, gradien dari setiap variabel dan
parameter perantara. Urutan perhitungan dibalik
relatif terhadap yang dilakukan dalam propagasi
maju, karena kita perlu memulai dengan hasil
grafik komputasi dan bekerja menuju
parameter. Langkah pertama adalah menghitung
gradien dari fungsi tujuanJ = L+s sehubungan
dengan istilah kerugian L dan istilah
regularisasi s.

∂J/∂L=1 and ∂J/∂s = 1

Selanjutnya, dihitung gradien dari fungsi tujuan


sehubungan dengan variabel lapisan
keluaran o menurut aturan rantai:

∂J/∂o = prod(∂J/∂L, ∂L/∂o) = ∂L/∂o ∈ Rq

Selanjutnya, dihitung gradien istilah regularisasi


sehubungan dengan kedua parameter:
∂s/∂W(1) = λW(1) and ∂s/∂W(2) = λW(2)

Sekarang kita dapat menghitung gradient


∂J/∂W(2) ∈ Rq×h parameter model yang paling
dekat dengan lapisan keluaran. Menggunakan
aturan rantai menghasilkan:

∂J/∂W(2) = prod (∂J/∂o, ∂o/∂W(2)) + prod (∂J/∂s,


∂s/∂W(2))=∂J/∂o h⊤+λW(2)

Untuk mendapatkan gradien sehubungan


dengan W(1)kita perlu melanjutkan propagasi
mundur di sepanjang lapisan keluaran ke lapisan
tersembunyi. Gradien sehubungan dengan
keluaran lapisan tersembunyi
∂J/∂h∈Rh∂J/∂h∈Rh diberikan oleh

∂J/∂h = prod (∂J/∂o, ∂o/∂h) = W(2)⊤∂J/∂o

Sejak fungsi aktivasi ϕ menerapkan secara


elementwise, menghitung gradien ∂J/∂z ∈ Rh dari
variabel perantara z mengharuskan kita
menggunakan operator perkalian elementwise,
yang kita nyatakan dengan ⊙:

∂J/∂z = prod (∂J/∂h, ∂h/∂z) = ∂J/∂h ⊙ ϕ′(z)


Akhirnya, kita bisa mendapatkan
gradien ∂J/∂W(1) ∈ Rh×d parameter model yang
paling dekat dengan lapisan masukan. Menurut
aturan rantai, didapatkan

∂J/∂W(1) = prod (∂J/∂z, ∂z/∂W(1)) + prod (∂J/∂s,


∂s/∂W(1)) = ∂J/∂z x⊤ + λW(1)

Sebenarnya istilah memperbaiki JST


ini kurang tepat jika menyebutnya
Backpropagation, lebih tepatnya adalah Gradient
Descent. Rumus utama untuk memperbaiki suatu
bobot w berdasarkan error E adalah:
∂E
w new=w old - α
∂w
Rumus ini juga berlaku untuk
memperbaiki nilai bias:
∂E
b new=b old - α
∂b
 Simbol α  pada rumus di atas adalah learning
rate, sebuah konstanta (biasanya antara 0-1) yang
menentukan seberapa cepat proses pembelajaran
model dilakukan.
∂E
 Sedangkan simbol  atau dibaca “turunan
∂w
parsial E terhadap w” adalah proses mencari nilai
turunan E terhadap variabel yang akan
diperbarui, dalam contoh ini w. Proses mencari
turunan inilah yang lebih tepat disebut
backpropagation. 
 Jika ada banyak nilai w, lakukan spesifikkan
untuk mengupdate nilai w 11terlebih
dulu. Kemudian hitung update nilai untuk b 1 .
∂E
Untuk menghitung  , pertama-tama
∂w
kita coba berjalan mundur dulu. Urutan proses
backward chaining digambarkan dengan garis
merah pada gambar di bawah ini. Dari mana
nilai E didapatkan dan apa hubungannya
dengan w11.
Nilai E diperoleh dari rumus Mean
Square Error:
1
E= ((t 1– y 1)2 + (t 2– y 2)2)
2
dari rumus di atas tidak ada variabel w11 tetapi
kita bisa coba “jalan mundur” lagi. Kita ingat-
ingat lagi dari mana nilai setiap
variabel y berasal.
y 1=σ( z 1)
y 2=σ( z 2)
Variabel y diperoleh dari menerapkan sebuah
fungsi aktivasi terhadap variabel z. Sedangkan,
variabel z sendiri dihitung dengan:
z 1=w 11 x 1+ w 21 x 2+w 31 x 3+b 1
z 2=w 12 x 1+ w 22 x 2+w 32 x 3+b 1

dari sini terlihat variabel w11 ada di


perhitungan z1 yang secara tidak langsung
berpengaruh ke nilai E. Hal ini yang disebut
dengan chaining atau rantaian.
Setelah kita memahami
hubungan E dan w11 langkah selanjutnya adalah
kita pahami bagaimana dasar menghitung
turunannya. Disini kita menggunakan turunan
parsial yang bedanya dengan turunan biasa
adalah fungsi bisa mengandung lebih dari satu
variabel. Selain itu, kita tidak menggunakan
simbol d tetapi turunan parsial menggunakan
simbol ∂.

1.     Jika  maka    = n , sudah


cukup jelas, ini adalah rumus dasar turunan.

2. Jika Jika   +  maka   =  

+ , artinya jika ada sebuah fungsi   yang


isinya adalah jumlahan dari fungsi-fungsi lain,
kita bisa turunkan masing-masing lalu
dijumlahkan.

3. Jika  +  maka   =

,  sama dengan poin nomor 2 , hanya

saja jadi keliatan ketika ada bagian dari fungsi   


yang ternyata tidak mengandung variabel yang
ingin diturunkan (yakni x) maka fungsi tersebut
bisa dijadikan 0.

4. Jika   maka   = ,
jika ada fungsi yang di dalamnya ada fungsi lain,
bisa dilakukan turunan untuk masing-masingnya
lalu dikalikan
5. jika   =σ(x) dengan σ(x) adalah fungsi

sigmoid, maka   =  
E. Parameter vs Hyperparameter
Hafiz Hidayat (G1A018033), Harizaldy Cahya Pratama
(G1A018057)
Parameter dapat diartikan sebagai sesuatu
yang dipelajari oleh sistem selama tahap training,
jadi algoritma dan input data itu sendiri yang
menyesuaikan nilai dari parameter tersebut. Proses
menentukan nilai parameter ini dikenal juga sebagai
optimisasi di dalam machine learning. Selama
optimisasi, nilai parameter model akan disesuaikan
berdasarkan data latih (training data) yang kita
berikan. Harapannya, model yang dihasilkan cukup
akurat untuk memetakan input menjadi output sesuai
pola yang ditemukan di dalam data latih.
Layaknya parameter, hyperparameter adalah
variabel yang memengaruhi output model. Bedanya,
nilai hyperparameter tidak diubah selama model
dioptimisasi. Dengan kata lain, nilai hyperparameter
tidak bergantung pada data dan selalu kita ambil saat
pendefinisian model. Dua model dengan jenis yang
sama namun hyperparameter berbeda bisa memiliki
bentuk yang berbeda pula. Selain memengaruhi
output, hyperparameter juga dapat menentukan
bagaimana parameter diinisialisasi dan diperbarui
selama optimisasi. Contohnya adalah hyperparameter
jumlah lapisan dan jumlah unit per lapisan dalam
feed-forward neural network.

Entitas yang dimaksudkan sebagai parameter


dalam jaringan syaraf tiruan adalah:

1. Weight (Bobot)
2. Bias

Sedangkan yang dimaksudkan sebagai


hyperparameter dalam jaringan syaraf tiruan adalah:

1. Learning
2. Banyaknya layer
3. Banyaknya neuron di setiap layer
4. Epoch
5. dll

F. Feedforward JST dan Recurrent JST


Nabilah Ghinanti Suci (G1A018078)
a. Feedforward
Feedforward merupakan elemen atau jalur
dalam sistem kontrol yang melewati sebuah
kontrol sinyal dari sumber di lingkungan
eksternalnya untuk sebuah muatan di tempat lain
dalam lingkungan eksternal itu sendiri. Sinyal
perintah biasanya berasal dari operator luar.

Sistem kontrol yang hanya memiliki perilaku


feedforward menanggapi sinyal kontrolnya
dengan cara yang telah ditentukan sebelumnya
tanpa menanggapi bagaimana muatan bereaksi;
berbeda dengan sistem yang juga memiliki
perilaku feedback, yang menyesuaikan masukan
untuk memperhitungkan bagaimana pengaruhnya
terhadap beban, dan bagaimana beban itu sendiri
dapat bervariasi secara tidak terduga; beban
dianggap milik lingkungan eksternal sistem.
Dalam sistem feedforward, penyesuaian
variabel kontrol tidak berbasis kesalahan.
Penyusaian variabel kontrol dalam sistem
feedforward didasarkan pada pengetahuan
tentang proses dalam bentuk model matematika
dari proses dan pengetahuan tentang hal tersebut,
atau pengukuran, gangguan dalam proses.
Beberapa prasyarat diperlukan agar skema
kontrol dapat diandalkan dengan feedforward
murni tanpa feedback: perintah eksternal atau
sinyal pengontrol harus tersedia, dan efek
keluaran sistem pada muatan harus diketahui
(yang biasanya berarti bahwa beban harus
diprediksi tidak berubah seiring waktu). Kontrol
feedforward murni tanpa feedback disebut
‘ballistic’, karena begitu sinyal kontrol dikirim,
tidak dapat disesuaikan lebih lanjut; setiap
penyesuaian korektif harus melalui sinyal kontrol
baru. Sebaliknya, ‘cruise control’ menyesuaikan
keluaran sebagai respons terhadap muatan yang
ditemuinya, melalui mekanisme feedforward.
Pengendalian feedforward didesain untuk
mengantisipasi masalah yang mungkin muncul
dan mengambil tindakan pencegahan.
Pengendalian ini memastikan bahwa tujuan dan
sumberdaya yang tepat telah disediakan sebelum
pekerjaan dimulai. Contohnya adalah dalam
pemilihan supplier yang andal untuk
menghindari rendahnya kualitas bahan baku.

Ilustrasi jaringan feedforward


b. Recurrent
Recurrent atau bisa juga disebut sebagai
feedback ada untuk mengatasi masalah yang
mungkin terjadi. Karena feedforward merupakan
suatu jaringan yang dapat secara langsung
mengoreksi perubahan muatan yang terjadi
walaupun akan tetap timbul error. Feedforward
dapat mengurangi deviasi dari setpoint tapi hal
ini berjalan lambat. Recurrent digunakan untuk
mengembalikan keadaan menuju setpoint secara
cepat tetapi mempunyai deviasi yang lebih lebar.
Jaringan recurrent dapat memiliki sinyal yang
berjalan di kedua arah dengan memperkenalkan
loop di jaringan. Jaringan recurrent sangat kuat
dan bisa menjadi sangat rumit. Perhitungan yang
berasal dari masukan sebelumnya diumpankan
kembali ke jaringan, yang memberi mereka
semacam memori. Jaringan umpan balik bersifat
dinamis; ‘keadaan’ mereka terus berubah hingga
mencapai titik ekuilibrium. Mereka tetap pada
titik kesetimbangan sampai masukan berubah
dan kesetimbangan baru perlu ditemukan.

Ilustrasi jaringan recurrent


Ilustrasi perbedaan feedforward (b) dan
recurrent (a)

Anda mungkin juga menyukai