disusun oleh:
Meli Tri Yanti G1A018008
Hanifah Nur Safitri G1A018019
Hafiz Hidayat G1A018033
Wina Salsabilla Fandini G1A018038
Rahmat Fikri Wahyudi G1A018054
Harizaldy Cahya Pratama G1A018057
Muhammad Reyhan Firdaus G1A018067
Nabilah Ghinanti Suci G1A018078
Raju Wahyudi Pratama G1A018091
A. Pengertian JST
Meli Tri Yanti (G1A018008)
Jaringan saraf tiruan (JST) (bahasa Inggris:
artificial neural network; ANN, atau simulated neural
network (SNN), atau neural network (NN)), adalah
jaringan dari sekelompok unit pemroses kecil yang
dimodelkan berdasarkan sistem saraf manusia. JST
merupakan sistem adaptif yang dapat mengubah
strukturnya untuk memecahkan masalah berdasarkan
informasi eksternal maupun internal yang mengalir
melalui jaringan tersebut. Oleh karena sifatnya yang
adaptif, JST juga sering disebut dengan jaringan
adaptif.
Secara sederhana, JST adalah sebuah alat
pemodelan data statistik non-linier. JST dapat
digunakan untuk memodelkan hubungan yang
kompleks antara input dan output untuk menemukan
pola-pola pada data. Menurut suatu teorema yang
disebut "teorema penaksiran universal", JST dengan
minimal sebuah lapis tersembunyi dengan fungsi
aktivasi non-linear dapat memodelkan seluruh fungsi
terukur Boreal apapun dari suatu dimensi ke dimensi
lainnya. Jaringan Syaraf Tiruan (JST) merupakan
suatu sistem pemrosesan informasi yang mempunyai
karakteristik menyerupai jaringan syaraf
biologi(JSB). JST tercipta sebagai suatu generalisasi
model matematis dari pemahaman manusia (human
cognition) yang didasarkan atas asumsi sebagai
berikut:
1. Pemrosesan informasi terjadi pada elemen
sederhana yang disebut neuron.
2. Sinyal mengalir diantara sel saraf/neuron melalui
suatu sambungan penghubung.
3. Setiap sambungan penghubung memiliki bobot
yang bersesuaian. Bobot ini akan digunakan
untuk menggandakan / mengalikan sinyal yang
dikirim melaluinya.
4. Setiap sel syaraf akan menerapkan fungsi
aktivasi terhadap sinyal hasil penjumlahan
berbobot yang masuk kepadanya untuk
menentukan sinyal keluarannya.
C. Fungsi Aktivasi
Muhammad Reyhan Firdaus (G1A018067), Raju Wahyudi
Pratama (G1A018091)
Ada 3 fungsi aktivasi yang paling umum
yaitu sigmoid function, hyperbolic
tangent, dan rectified linear unit (ReLU). Berikut
adalah penjelasannya.
a. Sigmoid atau Logistic Function.
Fungsi ini berada di antara nilai 0 hingga 1
sehingga biasanya digunakan untuk memprediksi
model probabilitas yang outputnya ada di kisaran
0 dan 1. Dengan kemiringan yang halus (smooth
gradient) memungkinkan Gradient
Descent (algoritma pengoptimalan yang mampu
menemukan solusi optimal untuk berbagai
masalah) berprogres pada setiap langkahnya.
Selain itu, fungsi sigmoid memberikan nilai
prediksi yang lebih jelas. Dari gambar di bawah,
perhatikan bahwa nilai X di bawah -2 atau di atas
2 cenderung memberikan nilai prediksi yang
sangat dekat dengan 0 atau 1.
b. Hyperbolic Tangent (tanh)
Sama seperti fungsi sigmoid, fungsi tanh
berbentuk S, kontinu, dan dapat dibedakan.
Perbedaannya adalah nilai keluarannya berkisar
dari -1 hingga 1. Rentang tersebut cenderung
membuat keluaran setiap lapisan kurang lebih
berpusat di sekitar 0 pada awal pelatihan
sehingga dapat membantu mempercepat
konvergensi [4]. Sifat zero centered ini juga
membuat fungsi ini lebih mudah dalam
memodelkan masukan yang memiliki nilai sangat
negatif, netral, dan sangat positif.
z=W(1)x
h=ϕ(z)
o=W(2)h
L=l(o,y)
s=λ/2(∥W(1)∥2f+∥W(2)∥2f)
J=L+s
1
σ(x) =
1+ e−x
y1 adalah nilai prediksi, atau nilai yang
dihasilkan oleh model JST kita. Seperti
disebutkan sebelumnya setiap data yang masuk
memiliki label kelas atau nilai y yang
diharapkan, misalnya untuk data X, kita ingin
model bernilai berikut (variabel t adalah nilai
target label kelas yang sebenarnya):
[t 1=0, t 2=1]
Dari sana tampak perbedaan nilai prediksi kita
(y) dengan nilai target (t). Kita bisa menghitung
seberapa melenceng prediksi kita menggunakan
rumus untuk menghitung error. Salah satunya
adalah dengan rumus Mean Square Error (MSE):
n
1
Error = ∑
n i=1
(target 1−prediksi 1)2
2. Jika Jika + maka =
3. Jika + maka =
4. Jika maka = ,
jika ada fungsi yang di dalamnya ada fungsi lain,
bisa dilakukan turunan untuk masing-masingnya
lalu dikalikan
5. jika =σ(x) dengan σ(x) adalah fungsi
sigmoid, maka =
E. Parameter vs Hyperparameter
Hafiz Hidayat (G1A018033), Harizaldy Cahya Pratama
(G1A018057)
Parameter dapat diartikan sebagai sesuatu
yang dipelajari oleh sistem selama tahap training,
jadi algoritma dan input data itu sendiri yang
menyesuaikan nilai dari parameter tersebut. Proses
menentukan nilai parameter ini dikenal juga sebagai
optimisasi di dalam machine learning. Selama
optimisasi, nilai parameter model akan disesuaikan
berdasarkan data latih (training data) yang kita
berikan. Harapannya, model yang dihasilkan cukup
akurat untuk memetakan input menjadi output sesuai
pola yang ditemukan di dalam data latih.
Layaknya parameter, hyperparameter adalah
variabel yang memengaruhi output model. Bedanya,
nilai hyperparameter tidak diubah selama model
dioptimisasi. Dengan kata lain, nilai hyperparameter
tidak bergantung pada data dan selalu kita ambil saat
pendefinisian model. Dua model dengan jenis yang
sama namun hyperparameter berbeda bisa memiliki
bentuk yang berbeda pula. Selain memengaruhi
output, hyperparameter juga dapat menentukan
bagaimana parameter diinisialisasi dan diperbarui
selama optimisasi. Contohnya adalah hyperparameter
jumlah lapisan dan jumlah unit per lapisan dalam
feed-forward neural network.
1. Weight (Bobot)
2. Bias
1. Learning
2. Banyaknya layer
3. Banyaknya neuron di setiap layer
4. Epoch
5. dll