DISUSUN OLEH:
2021
BAB I
PENDAHULUAN
Jaringan saraf tiruan dibangun seperti otak manusia, dengan simpul neuron
yang saling berhubungan seperti jaring. Otak manusia memiliki ratusan miliar
sel yang disebut neuron. Setiap neuron terdiri dari badan sel yang bertanggung
jawab untuk memproses informasi dengan membawa informasi menuju
(masukan) dan menjauh (keluaran) dari otak.
Sebuah JST memiliki ratusan atau ribuan neuron buatan yang disebut unit
pemrosesan, yang dihubungkan oleh node. Unit pemrosesan ini terdiri dari unit
input dan output. Unit masukan menerima berbagai bentuk dan struktur
informasi berdasarkan sistem pembobotan internal, dan jaringan saraf mencoba
mempelajari informasi yang disajikan untuk menghasilkan satu laporan
keluaran. Sama seperti manusia yang membutuhkan aturan dan pedoman untuk
menghasilkan hasil atau keluaran, JST juga menggunakan seperangkat aturan
pembelajaran yang disebut propagasi mundur, singkatan dari propagasi
kesalahan ke belakang, untuk menyempurnakan hasil keluarannya.
2
hingga perbedaan antara hasil aktual dan yang diinginkan menghasilkan
kesalahan serendah mungkin.
Selama tahap pelatihan dan pengawasan, JST diajarkan apa yang harus
dicari dan keluarannya, menggunakan jenis pertanyaan ya / tidak dengan
bilangan biner. Misalnya, bank yang ingin mendeteksi penipuan kartu kredit
tepat waktu mungkin memiliki empat unit masukan yang diberi pertanyaan
berikut: (1) Apakah transaksi di negara yang berbeda dari negara tempat
tinggal pengguna? (2) Apakah situs web tempat kartu digunakan di afiliasi
dengan perusahaan atau negara dalam daftar pantauan bank? (3) Apakah
jumlah transaksi lebih besar dari $ 2.000? (4) Apakah nama pada tagihan
transaksi sama dengan nama pemegang kartu?
3
4) pengoptimal: Tingkatkan pembelajaran dengan memperbarui pengetahuan
di jaringan
4
Gambar 2 Struktur Perceptron
5
Lapisan atau lapisan yang tersembunyi di antara lapisan masukan
dan keluaran dikenal sebagai lapisan tersembunyi. Ini disebut lapisan
tersembunyi karena selalu tersembunyi dari dunia luar. Perhitungan utama
Jaringan Neural terjadi di lapisan tersembunyi. Jadi, lapisan tersembunyi
mengambil semua masukan dari lapisan masukan dan melakukan kalkulasi
yang diperlukan untuk mendapatkan hasil. Hasil ini kemudian diteruskan
ke lapisan keluaran sehingga pengguna dapat melihat hasil penghitungan.
Dalam contoh pembuatan teh, saat kami mencampur semua bahan,
formulasi berubah keadaan dan warnanya saat dipanaskan. Bahan
mewakili lapisan tersembunyi. Di sini pemanasan merupakan proses
aktivasi yang akhirnya memberikan hasil - teh.
6
Ini adalah arsitektur JST yang paling sederhana dan paling dasar. Ini
hanya terdiri dari dua lapisan - lapisan masukan dan lapisan keluaran. Lapisan
masukan terdiri dari neuron masukan 'm' yang terhubung ke setiap neuron
keluaran 'n'. Sambungan membawa bobot w 11 dan seterusnya. Lapisan input
neuron tidak melakukan pemrosesan apa pun - mereka meneruskan sinyal i / p
ke neuron output daya. Perhitungan dilakukan di lapisan keluaran. Jadi,
meskipun memiliki 2 lapisan neuron, hanya satu lapisan yang melakukan
komputasi. Inilah alasan mengapa jaringan ini dikenal
sebagai lapisan TUNGGAL . Selain itu, sinyal selalu mengalir dari lapisan
masukan ke lapisan keluaran. Karenanya, jaringan ini dikenal sebagai FEED
FORWARD.
Input sinyal bersih ke neuron keluaran diberikan oleh:
Keluaran sinyal dari setiap neuron keluaran akan bergantung pada fungsi
aktivasi yang digunakan.
7
Jaringan Penerusan Umpan Multi-Lapisan
Jaringan multi-layer feed-forward sangat mirip dengan jaringan feed-forward
satu-layer, kecuali fakta bahwa ada satu atau lebih lapisan neuron antara lapisan
input dan output. Karenanya, jaringan disebut sebagai multi-layer. Setiap
lapisan mungkin memiliki jumlah neuron yang berbeda-beda. Misalnya, yang
ditunjukkan pada diagram di atas memiliki neuron 'm' di lapisan masukan dan 'r'
neuron di lapisan keluaran dan hanya ada satu lapisan tersembunyi dengan
neuron 'n'.
C).Jaringan Kompetitif:
Ini sama dengan struktur jaringan umpan-maju lapisan tunggal. Satu-satunya
perbedaan adalah bahwa neuron keluaran terhubung satu sama lain (baik
sebagian atau seluruhnya) . Di bawah ini adalah diagram untuk jenis jaringan
ini.
8
Jaringan Kompetitif
Menurut diagram, jelas bahwa beberapa neuron keluaran saling berhubungan
satu sama lain. Untuk masukan tertentu, neuron keluaran bersaing dengan
dirinya sendiri untuk mewakili masukan. Ini mewakili bentuk algoritma
pembelajaran tanpa pengawasan di JST yang cocok untuk menemukan cluster
dalam kumpulan data.
D).Jaringan Berulang:
Jaringan Berulang
Dalam jaringan umpan-maju, sinyal selalu mengalir dari lapisan masukan
menuju ke lapisan keluaran (dalam satu arah saja). Dalam kasus jaringan saraf
berulang, ada loop umpan balik (dari neuron di lapisan keluaran ke neuron
lapisan masukan). Bisa ada pengulangan sendiri juga.
9
D. Fungsi Aktivasi
Fungsi aktivasi adalah fungsi yang gunakan untuk mendapatkan output
dari node juga dikenal sebagai Fungsi Transfer. - Fungsi aktivasi memutuskan,
apakah neuron harus diaktifkan atau tidak dengan menghitung jumlah tertimbang
dan selanjutnya menambahkan bias dengannya. Tujuan dari fungsi aktivasi adalah
untuk memasukkan non-linearitas ke dalam keluaran neuron.
Jaringan syaraf tiruan memiliki neuron yang bekerja sesuai berat badan,
bisa dan fungsi aktivasinya masing-masing. Dalam jaringan saraf, kami akan
memperbarui bobot dan bias neuron berdasarkan kesalahan pada keluaran. Proses
ini dikenal sebagai propagasi balik . Fungsi aktivasi memungkinkan propagasi
balik karena gradien disediakan bersama dengan kesalahan untuk memperbarui
bobot dan bisa.
Jaringan saraf tanpa fungsi aktivasi pada dasarnya hanyalah model regresi
linier. Fungsi aktivasi melakukan transformasi non-linier menjadi input sehingga
dapat mempelajari dan melakukan tugas yang lebih kompleks.
1). Fungsi linear :-
1. Persamaan: Fungsi linier memiliki persamaan yang mirip dengan
persamaan garis lurus yaitu y = ax
2. Tidak peduli berapa banyak lapisan yang kita miliki, jika semuanya
bersifat linier, fungsi aktivasi akhir dari lapisan terakhir tidak lain adalah
fungsi linier dari masukan lapisan pertama.
3. Rentang: -inf hingga + inf
10
4. Kegunaan: Fungsi aktivasi linier hanya digunakan di satu tempat yaitu
lapisan keluaran.
5. Masalah: Jika kita akan membedakan fungsi linier untuk menghasilkan
non-linieritas, hasilnya tidak akan lagi bergantung pada input “x” dan
fungsi akan menjadi konstan, tidak akan memperkenalkan perilaku
terobosan apa pun ke algoritme kita.
Misalnya: Perhitungan harga rumah adalah masalah regresi. Harga rumah
boleh saja memiliki nilai besar / kecil, sehingga kita dapat menerapkan aktivasi
linier pada lapisan keluaran. Bahkan dalam kasus ini jaringan saraf harus
memiliki fungsi non-linier di lapisan tersembunyi.
2). Fungsi Sigmoid: -
1. Ini adalah fungsi yang diplot sebagai grafik berbentuk 'S' .
2. Persamaan:
A = 1 / (1 + e -x )
3. Sifat: Non-linier. Perhatikan bahwa nilai X berada di antara -2 hingga 2,
nilai Y sangat curam. Artinya, perubahan kecil pada x juga akan
membawa perubahan besar pada nilai Y.
4. Rentang Nilai: 0 hingga 1
5. Kegunaan: Biasanya digunakan pada lapisan keluaran dari klasifikasi
biner, di mana hasilnya adalah 0 atau 1, karena nilai untuk fungsi
sigmoid terletak antara 0 dan 1 saja, hasil dapat diprediksi dengan mudah
menjadi 1 jika nilainya lebih besar dari 0,5 dan 0 sebaliknya .
3). Fungsi Tanh: Aktivasi yang bekerja hampir selalu lebih baik daripada
fungsi sigmoid adalah fungsi Tanh yang juga dikenal sebagai fungsi Tangent
Hyperbolic . Ini sebenarnya versi matematis dari fungsi sigmoid. Keduanya
serupa dan bisa diturunkan satu sama lain.
Persamaan: -
f (x) = tanh (x) = 2 / (1 + e -2x ) - 1
ATAU
tanh (x) = 2 * sigmoid (2x) - 1
1 Rentang Nilai: - -1 hingga +1
2 Sifat: - non-linier
11
3 Kegunaan: - Biasanya digunakan dalam lapisan tersembunyi dari
jaringan saraf karena nilainya terletak antara -1 hingga 1 sehingga mean
untuk lapisan tersembunyi keluar menjadi 0 atau sangat dekat
dengannya, sehingga membantu dalam memusatkan data dengan
membawa mean mendekati 0 . Ini membuat pembelajaran untuk lapisan
berikutnya jauh lebih mudah.
4). RELU: - Singkatan dari Rectified linear unit . Ini adalah fungsi
aktivasi yang paling banyak digunakan. Terutama diterapkan di lapisan
tersembunyi jaringan Neural.
1. Persamaan: - A (x) = max (0, x) . Ini memberikan keluaran x jika x
positif dan 0 sebaliknya.
2. Rentang Nilai: - [0, inf)
3. Sifat: - non-linier, yang berarti kita dapat dengan mudah mempropagasi
kesalahan dan memiliki beberapa lapisan neuron yang diaktifkan oleh
fungsi ULT.
4. Kegunaan: - ReLu lebih murah secara komputasi daripada tanh dan
sigmoid karena melibatkan operasi matematika yang lebih
sederhana. Pada saat hanya beberapa neuron yang diaktifkan membuat
jaringan menjadi jarang sehingga efisien dan mudah untuk komputasi.
Dengan kata sederhana, RELU belajar lebih cepat daripada fungsi sigmoid dan
Tanh.
5). Fungsi Softmax: - Fungsi softmax juga merupakan jenis fungsi sigmoid
tetapi berguna saat kita mencoba menangani masalah klasifikasi.
1. Sifat: - non-linier
2. Kegunaan: - Biasanya digunakan saat mencoba menangani banyak
kelas. Fungsi softmax akan memeras keluaran untuk setiap kelas antara 0
dan 1 dan juga akan membagi dengan jumlah keluaran.
3. Output: - Fungsi softmax idealnya digunakan pada lapisan keluaran dari
pengklasifikasi di mana kita sebenarnya mencoba untuk mencapai
kemungkinan untuk menentukan kelas dari setiap masukan.
MEMILIH FUNGSI AKTIVASI YANG TEPAT
12
1. Aturan dasarnya adalah jika benar-benar tidak mengetahui fungsi
aktivasi yang akan digunakan, cukup gunakan RELU karena ini adalah
fungsi aktivasi umum dan digunakan dalam banyak kasus saat ini.
2. Jika keluaran untuk klasifikasi biner, fungsi sigmoid adalah pilihan yang
sangat alami untuk lapisan keluaran.
E. Proses Pembelajaran
Proses pembelajaran di JST terutama bergantung pada empat faktor, yaitu:
13
harus kurang dari 25 (nilai ambang batas). Mungkin ada masalah lain yang,
tingkat kesalahan klasifikasi mungkin tidak berkurang secara progresif.
Misalnya, Melatih mesin untuk membantu memprediksi berapa lama waktu yang
dibutuhkan untuk berkendara pulang dari tempat kerja. Mulai dengan membuat
sekumpulan data berlabel. Data ini termasuk
Kondisi cuaca
Waktu dalam hari
Liburan
14
Semua detail ini adalah masukan. Outputnya adalah jumlah waktu yang
dibutuhkan untuk pulang ke rumah pada hari tertentu. Secara harfiah tahu bahwa
jika hujan di luar, maka akan lebih lama berkendara pulang. Tetapi mesin
membutuhkan data dan statistik. Bagaimana cara mengembangkan model
pembelajaran yang diawasi dari contoh ini yang membantu pengguna untuk
menentukan waktu perjalanan. Hal pertama yang perlukan untuk membuat adalah
kumpulan data pelatihan. pelatihan ini akan berisi total waktu perjalanan dan
faktor terkait seperti cuaca, waktu, dll. Berdasarkan set pelatihan ini, mesin
mungkin melihat ada hubungan langsung antara jumlah hujan dan waktu yang
perlukan untuk pulang. Jadi, ini memastikan bahwa semakin banyak hujan,
semakin lama akan berkendara untuk kembali ke rumah. Mungkin juga melihat
hubungan antara waktu pulang kerja dan waktu dalam perjalanan. Semakin dekat
a dengan jam 6 sore, semakin lama waktu yang butuhkan untuk sampai di
rumah. Mesin mungkin menemukan beberapa hubungan dengan data berlabel.
Ini adalah awal dari Model Data. Ini mulai memengaruhi bagaimana hujan
memengaruhi cara orang mengemudi. Itu juga mulai melihat bahwa lebih banyak
orang bepergian selama waktu tertentu dalam sehari.
15
Regresi:
Klasifikasi:
16
Algoritme pembelajaran tanpa pengawasan memungkinkan melakukan
tugas pemrosesan yang lebih kompleks dibandingkan dengan pembelajaran yang
diawasi. Meskipun, pembelajaran tanpa pengawasan bisa lebih tidak terduga
dibandingkan dengan pembelajaran alami lainnya dalam pembelajaran
pembelajaran dan metode penguatan.
Misalnya , ada gambar yang memiliki anjing dan kucing yang belum pernah
terlihat.
Dengan demikian mesin tidak mengetahui fitur anjing dan kucing sehingga kami
tidak dapat mengkategorikannya pada anjing dan kucing. Tetapi dapat
mengkategorikan mereka menurut persamaan, pola, dan perbedaannya yaitu kita
dapat dengan mudah mengkategorikan gambar di atas menjadi dua
bagian. Pertama pertama mungkin berisi semua foto yang memiliki anjing di
17
dalamnya dan bagian kedua mungkin berisi semua foto yang memiliki kucing di
dalamnya. Di sini Anda tidak belajar apa pun sebelumnya, berarti tidak ada data
atau contoh pelatihan.
Ini memungkinkan model untuk bekerja sendiri untuk menemukan pola dan
informasi yang sebelumnya tidak terdeteksi. Ini terutama berkaitan dengan data
yang tidak berlabel.
Kekelompokan
1. Eksklusif (mempartisi)
2. Aglomeratif
3. Tumpang tindih
4. Probabilistik
Jenis Clustering: -
1. Pengelompokan hierarki
2. Pengelompokan K-means
3. Analisis Komponen Utama
4. Dekomposisi Nilai Singular
5. Analisis Komponen Independen
18