Anda di halaman 1dari 18

ARTIKEL KECERDASAN BUATAN

JARINGAN SARAF BUATAN

 Dosen Pengampu: Alda Cendekia Siregar, S.Kom., M.Cs.

DISUSUN  OLEH:

Aldi Renadi 202220108

Bayu Putra Ngudi Persada 202220107

Hapidzul Nurinadi 192220086

Mirza Alfariz 202220096

PROGRAM STUDI TEKNIK INFORMATIKA

FAKULTAS TEKNIK DAN ILMU KOMPUTER

UNIVERSITAS MUHAMMADIYAH PONTIANAK

2021
BAB I
PENDAHULUAN

A. Pengantar Jaringan Saraf Tiruan


Jaringan saraf tiruan (JST) adalah bagian dari sistem komputasi yang
dirancang untuk mensimulasikan cara otak manusia menganalisis dan
memproses informasi. Ini adalah dasar dari kecerdasan buatan (AI) dan
memecahkan masalah yang terbukti tidak mungkin atau sulit menurut standar
manusia atau statistik. JST memiliki kemampuan belajar mandiri yang
memungkinkannya menghasilkan hasil yang lebih baik saat lebih banyak data
tersedia.

Jaringan saraf tiruan dibangun seperti otak manusia, dengan simpul neuron
yang saling berhubungan seperti jaring. Otak manusia memiliki ratusan miliar
sel yang disebut neuron. Setiap neuron terdiri dari badan sel yang bertanggung
jawab untuk memproses informasi dengan membawa informasi menuju
(masukan) dan menjauh (keluaran) dari otak.

Sebuah JST memiliki ratusan atau ribuan neuron buatan yang disebut unit
pemrosesan, yang dihubungkan oleh node. Unit pemrosesan ini terdiri dari unit
input dan output. Unit masukan menerima berbagai bentuk dan struktur
informasi berdasarkan sistem pembobotan internal, dan jaringan saraf mencoba
mempelajari informasi yang disajikan untuk menghasilkan satu laporan
keluaran. Sama seperti manusia yang membutuhkan aturan dan pedoman untuk
menghasilkan hasil atau keluaran, JST juga menggunakan seperangkat aturan
pembelajaran yang disebut propagasi mundur, singkatan dari propagasi
kesalahan ke belakang, untuk menyempurnakan hasil keluarannya.

Sebuah JST pada awalnya melewati fase pelatihan di mana ia belajar


mengenali pola dalam data, baik secara visual, aurally, atau tekstual. Selama
fase pengawasan ini, jaringan membandingkan keluaran aktualnya yang
dihasilkan dengan apa yang dimaksudkan untuk diproduksi — keluaran yang
diinginkan. Perbedaan antara kedua hasil tersebut disesuaikan menggunakan
propagasi mundur. Ini berarti bahwa jaringan bekerja mundur, mulai dari unit
keluaran ke unit masukan untuk menyesuaikan bobot koneksinya antar unit

2
hingga perbedaan antara hasil aktual dan yang diinginkan menghasilkan
kesalahan serendah mungkin.

Selama tahap pelatihan dan pengawasan, JST diajarkan apa yang harus
dicari dan keluarannya, menggunakan jenis pertanyaan ya / tidak dengan
bilangan biner. Misalnya, bank yang ingin mendeteksi penipuan kartu kredit
tepat waktu mungkin memiliki empat unit masukan yang diberi pertanyaan
berikut: (1) Apakah transaksi di negara yang berbeda dari negara tempat
tinggal pengguna? (2) Apakah situs web tempat kartu digunakan di afiliasi
dengan perusahaan atau negara dalam daftar pantauan bank? (3) Apakah
jumlah transaksi lebih besar dari $ 2.000? (4) Apakah nama pada tagihan
transaksi sama dengan nama pemegang kartu?

Bank menginginkan tanggapan "terdeteksi penipuan" menjadi Ya Ya Ya


Tidak, yang dalam format biner adalah 1 1 1 0. Jika keluaran aktual jaringan
adalah 1 0 1 0, ia menyesuaikan hasilnya hingga memberikan keluaran yang
sesuai dengan 1 1 1 0. Setelah pelatihan, sistem komputer dapat
memperingatkan bank tentang transaksi penipuan yang tertunda, sehingga bank
menghemat banyak uang.

Karakteristik Jaringan Syaraf Tiruan :


1. Sejumlah besar elemen pemrosesan mirip neuron pemrosesan yang sangat
sederhana.
2. Sejumlah besar koneksi berbobot antar elemen.
3. Representasi pengetahuan yang terdistribusi melalui koneksi.
4. Pengetahuan diperoleh melalui jaringan melalui proses pembelajaran.

Jaringan Syaraf Tiruan (JST) terdiri dari empat objek utama:

1) Lapisan: semua pembelajaran terjadi di lapisan. Ada 3 lapisan 1) Input 2)


Tersembunyi dan 3) Output
2) fitur dan label: Input data ke jaringan (fitur) dan output dari jaringan
(label)
3) fungsi kerugian: Metrik yang digunakan untuk memperkirakan kinerja
tahap pembelajaran

3
4) pengoptimal: Tingkatkan pembelajaran dengan memperbarui pengetahuan
di jaringan

Jaringan neural akan mengambil data masukan dan mendorongnya ke dalam


kumpulan lapisan. Jaringan perlu mengevaluasi kinerjanya dengan fungsi
kerugian. Fungsi kerugian memberi jaringan gambaran tentang jalur yang harus
diambil sebelum menguasai pengetahuan. Jaringan perlu meningkatkan
pengetahuannya dengan bantuan pengoptimal.

Gambar 1 Karakteristik Jaringan Syaraf Tiruan

B. Komponen Jaringan Syaraf


Jaringan saraf dirancang khusus berdasarkan cara kerja bagian dalam otak
biologis. Model-model ini meniru fungsi neuron yang saling berhubungan dengan
melewatkan fitur masukan melalui beberapa lapisan dari apa yang disebut sebagai
perceptron (pikirkan 'neuron'), masing-masing mengubah masukan menggunakan
sekumpulan fungsi. Bagian ini akan menjelaskan komponen perceptron,
komponen terkecil dari jaringan saraf.

4
Gambar 2 Struktur Perceptron

Input Layers, Neurons, dan Weights


Pada gambar yang diberikan di atas, lapisan kuning terluar adalah
lapisan masukan. Neuron adalah unit dasar dari jaringan saraf. Mereka
menerima masukan dari sumber eksternal atau node lain. Setiap node
terhubung dengan node lain dari lapisan berikutnya, dan setiap koneksi
tersebut memiliki bobot tertentu. Bobot diberikan ke neuron berdasarkan
kepentingan relatifnya terhadap input lain.
Ketika semua nilai simpul dari lapisan kuning dikalikan (bersama
dengan bobotnya) dan diringkas, itu menghasilkan nilai untuk lapisan
tersembunyi pertama. Berdasarkan nilai ringkasan, lapisan biru memiliki
fungsi "aktivasi" yang ditentukan sebelumnya yang menentukan apakah
node ini akan "diaktifkan" atau tidak dan seberapa "aktif" akan.
Sebagai contoh menggunakan tugas sehari-hari sederhana -
membuat teh. Dalam proses pembuatan teh, bahan yang digunakan untuk
membuat teh (air, daun teh, susu, gula, dan rempah-rempah) merupakan
“neuron” karena merupakan titik awal proses pembuatan. Jumlah setiap
bahan mewakili "berat". Setelah memasukkan daun teh ke dalam air dan
menambahkan gula, bumbu, dan susu ke dalam wajan, semua bahan akan
bercampur dan berubah menjadi keadaan lain. Proses transformasi ini
mewakili "fungsi aktivasi".

Hidden Layers dan Output Layer 

5
Lapisan atau lapisan yang tersembunyi di antara lapisan masukan
dan keluaran dikenal sebagai lapisan tersembunyi. Ini disebut lapisan
tersembunyi karena selalu tersembunyi dari dunia luar. Perhitungan utama
Jaringan Neural terjadi di lapisan tersembunyi. Jadi, lapisan tersembunyi
mengambil semua masukan dari lapisan masukan dan melakukan kalkulasi
yang diperlukan untuk mendapatkan hasil. Hasil ini kemudian diteruskan
ke lapisan keluaran sehingga pengguna dapat melihat hasil penghitungan.
Dalam contoh pembuatan teh, saat kami mencampur semua bahan,
formulasi berubah keadaan dan warnanya saat dipanaskan. Bahan
mewakili lapisan tersembunyi. Di sini pemanasan merupakan proses
aktivasi yang akhirnya memberikan hasil - teh.

C. Arsitektur Jaringan Saraf


JST adalah sistem komputasi yang terdiri dari banyak unit yang saling
berhubungan yang disebut neuron buatan . Hubungan antara neuron buatan dapat
mengirimkan sinyal dari satu neuron ke neuron lainnya. Jadi, ada banyak
kemungkinan untuk menghubungkan neuron berdasarkan arsitektur yang akan kita
adopsi untuk solusi tertentu. Beberapa permutasi dan kombinasi adalah sebagai
berikut: 
1) Mungkin hanya ada dua lapisan neuron di jaringan - lapisan masukan dan
keluaran.
2) Mungkin ada satu atau lebih lapisan 'tersembunyi' perantara dari sebuah
neuron.
3) Neuron dapat terhubung dengan semua neuron di lapisan berikutnya dan
seterusnya.
Berbagai arsitektur Jaringan Saraf :

A) .Jaringan Penerusan Umpan Satu Lapisan:

6
Ini adalah arsitektur JST yang paling sederhana dan paling dasar. Ini
hanya terdiri dari dua lapisan - lapisan masukan dan lapisan keluaran. Lapisan
masukan terdiri dari neuron masukan 'm' yang terhubung ke setiap neuron
keluaran 'n'. Sambungan membawa bobot w 11 dan seterusnya. Lapisan input
neuron tidak melakukan pemrosesan apa pun - mereka meneruskan sinyal i / p
ke neuron output daya. Perhitungan dilakukan di lapisan keluaran. Jadi,
meskipun memiliki 2 lapisan neuron, hanya satu lapisan yang melakukan
komputasi. Inilah alasan mengapa jaringan ini dikenal
sebagai lapisan TUNGGAL . Selain itu, sinyal selalu mengalir dari lapisan
masukan ke lapisan keluaran. Karenanya, jaringan ini dikenal sebagai FEED
FORWARD. 
Input sinyal bersih ke neuron keluaran diberikan oleh:

Keluaran sinyal dari setiap neuron keluaran akan bergantung pada fungsi
aktivasi yang digunakan.

B).Jaringan Penerusan Umpan Multi-layer:

7
Jaringan Penerusan Umpan Multi-Lapisan
Jaringan multi-layer feed-forward sangat mirip dengan jaringan feed-forward
satu-layer, kecuali fakta bahwa ada satu atau lebih lapisan neuron antara lapisan
input dan output. Karenanya, jaringan disebut sebagai multi-layer. Setiap
lapisan mungkin memiliki jumlah neuron yang berbeda-beda. Misalnya, yang
ditunjukkan pada diagram di atas memiliki neuron 'm' di lapisan masukan dan 'r'
neuron di lapisan keluaran dan hanya ada satu lapisan tersembunyi dengan
neuron 'n'. 

untuk neuron lapisan tersembunyi ke-k. Input sinyal bersih ke neuron di lapisan


keluaran diberikan oleh:

C).Jaringan Kompetitif:
Ini sama dengan struktur jaringan umpan-maju lapisan tunggal. Satu-satunya
perbedaan adalah bahwa neuron keluaran terhubung satu sama lain (baik
sebagian atau seluruhnya) . Di bawah ini adalah diagram untuk jenis jaringan
ini.

8
Jaringan Kompetitif
Menurut diagram, jelas bahwa beberapa neuron keluaran saling berhubungan
satu sama lain. Untuk masukan tertentu, neuron keluaran bersaing dengan
dirinya sendiri untuk mewakili masukan. Ini mewakili bentuk algoritma
pembelajaran tanpa pengawasan di JST yang cocok untuk menemukan cluster
dalam kumpulan data.

D).Jaringan Berulang:

Jaringan Berulang
Dalam jaringan umpan-maju, sinyal selalu mengalir dari lapisan masukan
menuju ke lapisan keluaran (dalam satu arah saja). Dalam kasus jaringan saraf
berulang, ada loop umpan balik (dari neuron di lapisan keluaran ke neuron
lapisan masukan). Bisa ada pengulangan sendiri juga.

9
D. Fungsi Aktivasi
Fungsi aktivasi adalah fungsi yang gunakan untuk mendapatkan output
dari node juga dikenal sebagai Fungsi Transfer. - Fungsi aktivasi memutuskan,
apakah neuron harus diaktifkan atau tidak dengan menghitung jumlah tertimbang
dan selanjutnya menambahkan bias dengannya. Tujuan dari fungsi aktivasi adalah
untuk memasukkan non-linearitas ke dalam keluaran neuron.

Jaringan syaraf tiruan memiliki neuron yang bekerja sesuai berat badan,
bisa dan fungsi aktivasinya masing-masing. Dalam jaringan saraf, kami akan
memperbarui bobot dan bias neuron berdasarkan kesalahan pada keluaran. Proses
ini dikenal sebagai propagasi balik . Fungsi aktivasi memungkinkan propagasi
balik karena gradien disediakan bersama dengan kesalahan untuk memperbarui
bobot dan bisa.

Jaringan saraf tanpa fungsi aktivasi pada dasarnya hanyalah model regresi
linier. Fungsi aktivasi melakukan transformasi non-linier menjadi input sehingga
dapat mempelajari dan melakukan tugas yang lebih kompleks.

Macam – Macam Fungsi Aktivasi :

1). Fungsi linear :-
1. Persamaan: Fungsi linier memiliki persamaan yang mirip dengan
persamaan garis lurus yaitu y = ax
2. Tidak peduli berapa banyak lapisan yang kita miliki, jika semuanya
bersifat linier, fungsi aktivasi akhir dari lapisan terakhir tidak lain adalah
fungsi linier dari masukan lapisan pertama.
3. Rentang: -inf hingga + inf

10
4. Kegunaan: Fungsi aktivasi linier hanya digunakan di satu tempat yaitu
lapisan keluaran.
5. Masalah: Jika kita akan membedakan fungsi linier untuk menghasilkan
non-linieritas, hasilnya tidak akan lagi bergantung pada input “x” dan
fungsi akan menjadi konstan, tidak akan memperkenalkan perilaku
terobosan apa pun ke algoritme kita.
Misalnya: Perhitungan harga rumah adalah masalah regresi. Harga rumah
boleh saja memiliki nilai besar / kecil, sehingga kita dapat menerapkan aktivasi
linier pada lapisan keluaran. Bahkan dalam kasus ini jaringan saraf harus
memiliki fungsi non-linier di lapisan tersembunyi.
2). Fungsi Sigmoid: -
1. Ini adalah fungsi yang diplot sebagai grafik berbentuk 'S' .
2. Persamaan:
A = 1 / (1 + e -x )
3. Sifat: Non-linier. Perhatikan bahwa nilai X berada di antara -2 hingga 2,
nilai Y sangat curam. Artinya, perubahan kecil pada x juga akan
membawa perubahan besar pada nilai Y.
4. Rentang Nilai: 0 hingga 1
5. Kegunaan: Biasanya digunakan pada lapisan keluaran dari klasifikasi
biner, di mana hasilnya adalah 0 atau 1, karena nilai untuk fungsi
sigmoid terletak antara 0 dan 1 saja, hasil dapat diprediksi dengan mudah
menjadi 1 jika nilainya lebih besar dari 0,5 dan 0 sebaliknya .
3). Fungsi Tanh: Aktivasi yang bekerja hampir selalu lebih baik daripada
fungsi sigmoid adalah fungsi Tanh yang juga dikenal sebagai fungsi Tangent
Hyperbolic . Ini sebenarnya versi matematis dari fungsi sigmoid. Keduanya
serupa dan bisa diturunkan satu sama lain.
 Persamaan: -
f (x) = tanh (x) = 2 / (1 + e -2x ) - 1
ATAU
tanh (x) = 2 * sigmoid (2x) - 1
1 Rentang Nilai: - -1 hingga +1
2 Sifat: - non-linier

11
3 Kegunaan: - Biasanya digunakan dalam lapisan tersembunyi dari
jaringan saraf karena nilainya terletak antara -1 hingga 1 sehingga mean
untuk lapisan tersembunyi keluar menjadi 0 atau sangat dekat
dengannya, sehingga membantu dalam memusatkan data dengan
membawa mean mendekati 0 . Ini membuat pembelajaran untuk lapisan
berikutnya jauh lebih mudah.
4). RELU: - Singkatan dari Rectified linear unit . Ini adalah fungsi
aktivasi yang paling banyak digunakan. Terutama diterapkan di lapisan
tersembunyi jaringan Neural.
1. Persamaan: - A (x) = max (0, x) . Ini memberikan keluaran x jika x
positif dan 0 sebaliknya.
2. Rentang Nilai: - [0, inf)
3. Sifat: - non-linier, yang berarti kita dapat dengan mudah mempropagasi
kesalahan dan memiliki beberapa lapisan neuron yang diaktifkan oleh
fungsi ULT.
4. Kegunaan: - ReLu lebih murah secara komputasi daripada tanh dan
sigmoid karena melibatkan operasi matematika yang lebih
sederhana. Pada saat hanya beberapa neuron yang diaktifkan membuat
jaringan menjadi jarang sehingga efisien dan mudah untuk komputasi.
Dengan kata sederhana, RELU belajar lebih cepat daripada fungsi sigmoid dan
Tanh.
5). Fungsi Softmax: - Fungsi softmax juga merupakan jenis fungsi sigmoid
tetapi berguna saat kita mencoba menangani masalah klasifikasi.
1. Sifat: - non-linier
2. Kegunaan: - Biasanya digunakan saat mencoba menangani banyak
kelas. Fungsi softmax akan memeras keluaran untuk setiap kelas antara 0
dan 1 dan juga akan membagi dengan jumlah keluaran.
3. Output: - Fungsi softmax idealnya digunakan pada lapisan keluaran dari
pengklasifikasi di mana kita sebenarnya mencoba untuk mencapai
kemungkinan untuk menentukan kelas dari setiap masukan.
MEMILIH FUNGSI AKTIVASI YANG TEPAT

12
1. Aturan dasarnya adalah jika benar-benar tidak mengetahui fungsi
aktivasi yang akan digunakan, cukup gunakan RELU karena ini adalah
fungsi aktivasi umum dan digunakan dalam banyak kasus saat ini.
2. Jika keluaran untuk klasifikasi biner, fungsi sigmoid adalah pilihan yang
sangat alami untuk lapisan keluaran.

E. Proses Pembelajaran
Proses pembelajaran di JST terutama bergantung pada empat faktor, yaitu:

1. Jumlah lapisan dalam jaringan (Lapisan tunggal atau berlapis-lapis)


2. Arah aliran sinyal (Feedforward atau berulang)
3. Jumlah node dalam lapisan: Jumlah node di lapisan masukan sama
dengan jumlah fitur kumpulan data masukan. Jumlah node keluaran akan
bergantung pada hasil yang mungkin, yaitu jumlah kelas dalam kasus
pembelajaran yang diawasi. Tetapi jumlah lapisan di lapisan tersembunyi
harus dipilih oleh pengguna. Jumlah node yang lebih besar di lapisan
tersembunyi, performa lebih tinggi, tetapi terlalu banyak node dapat
mengakibatkan overfitting serta peningkatan biaya komputasi.
4. Berat Node yang Saling Terhubung: Menentukan nilai bobot yang
melekat pada setiap interkoneksi antar neuron sehingga masalah
pembelajaran tertentu dapat diselesaikan dengan benar merupakan masalah
yang cukup sulit dengan sendirinya. Ambil contoh untuk memahami
masalahnya. Ambil contoh Multi-layered Feed-Forward Network, kita harus
melatih model JST menggunakan beberapa data, sehingga dapat
mengklasifikasikan kumpulan data baru, misalnya p_5 (3, -2). Katakanlah
kita telah menyimpulkan bahwa p_1 = (5,2) dan p_2 = (-1,12) milik kelas C1
sementara p_3 = (3, -5) dan p_4 = (-2, -1) milik kelas C2. Kami
mengasumsikan nilai bobot sinaptik w_0, w_1, w_2 masing-masing sebagai
-2, 1/2 dan 1/4. Tetapi kami TIDAK akan mendapatkan nilai bobot ini untuk
setiap masalah pembelajaran. Untuk memecahkan masalah pembelajaran
dengan ANN, kita dapat mulai dengan sekumpulan nilai untuk bobot sinaptik
dan terus mengubahnya dalam beberapa iterasi. Kriteria penghentian
mungkin tingkat kesalahan klasifikasi <1% atau jumlah maksimum iterasi

13
harus kurang dari 25 (nilai ambang batas). Mungkin ada masalah lain yang,
tingkat kesalahan klasifikasi mungkin tidak berkurang secara progresif.

F. Pembelajaran Terawasi (Supervised learning)


Dalam pembelajaran terawasi, melatih mesin menggunakan data yang
"diberi label" dengan baik . Artinya beberapa data sudah diberi tag jawaban yang
benar. Ini dapat dibandingkan dengan pembelajaran yang berlangsung di hadapan
pengawas atau guru.

Algoritma pembelajaran yang diawasi belajar dari data pelatihan berlabel,


membantu memprediksi hasil untuk data yang tidak terduga. Berhasil
membangun, menlaksanakan, dan menerapkan model machine learning yang
diawasi secara akurat membutuhkan waktu dan keahlian teknis dari tim data
scientist yang sangat terampil. Selain itu, Data scientist harus membangun
kembali model untuk memastikan wawasan yang diberikan tetap benar hingga
datanya berubah.

Mengapa Supervised Learning?

 Pembelajaran yang diawasi memungkinkan mengumpulkan data atau


menghasilkan keluaran data dari pengalaman sebelumnya.
 Membantu mengoptimalkan kriteria kinerja menggunakan pengalaman
 Pembelajaran mesin yang diawasi membantu memecahkan berbagai jenis
masalah komputasi dunia nyata.

Cara Kerja Supervised Learning

Misalnya, Melatih mesin untuk membantu memprediksi berapa lama waktu yang
dibutuhkan untuk berkendara pulang dari tempat kerja. Mulai dengan membuat
sekumpulan data berlabel. Data ini termasuk

 Kondisi cuaca
 Waktu dalam hari
 Liburan

14
Semua detail ini adalah masukan. Outputnya adalah jumlah waktu yang
dibutuhkan untuk pulang ke rumah pada hari tertentu. Secara harfiah tahu bahwa
jika hujan di luar, maka akan lebih lama berkendara pulang. Tetapi mesin
membutuhkan data dan statistik. Bagaimana cara mengembangkan model
pembelajaran yang diawasi dari contoh ini yang membantu pengguna untuk
menentukan waktu perjalanan. Hal pertama yang perlukan untuk membuat adalah
kumpulan data pelatihan.  pelatihan ini akan berisi total waktu perjalanan dan
faktor terkait seperti cuaca, waktu, dll. Berdasarkan set pelatihan ini, mesin
mungkin melihat ada hubungan langsung antara jumlah hujan dan waktu yang
perlukan untuk pulang. Jadi, ini memastikan bahwa semakin banyak hujan,
semakin lama akan berkendara untuk kembali ke rumah. Mungkin juga melihat
hubungan antara waktu pulang kerja dan waktu dalam perjalanan. Semakin dekat
a dengan jam 6 sore, semakin lama waktu yang butuhkan untuk sampai di
rumah. Mesin mungkin menemukan beberapa hubungan dengan data berlabel.

Ini adalah awal dari Model Data. Ini mulai memengaruhi bagaimana hujan
memengaruhi cara orang mengemudi. Itu juga mulai melihat bahwa lebih banyak
orang bepergian selama waktu tertentu dalam sehari.

Jenis Teknik Pembelajaran Mesin yang Diawasi

15
Regresi:

Teknik regresi memprediksi nilai keluaran tunggal menggunakan data pelatihan.

Contoh: Menggunakan regresi untuk memprediksi harga rumah dari data


pelatihan. Variabel masukan adalah lokalitas, ukuran rumah, dll.

Klasifikasi:

Klasifikasi artinya mengelompokkan keluaran di dalam kelas. Jika algoritme


mencoba memberi label input ke dalam dua kelas yang berbeda, itu disebut
klasifikasi biner. Memilih di antara lebih dari dua kelas disebut sebagai klasifikasi
multikelas.

Contoh : Menentukan apakah seseorang akan membatalkan pinjaman atau tidak.

Kekuatan : Output selalu memiliki interpretasi probabilistik, dan algoritme dapat


diatur untuk menghindari overfitting.

Kelemahan : Regresi logistik mungkin berkinerja buruk jika ada beberapa


batasan keputusan atau non-linier. Metode ini tidak fleksibel, jadi tidak
menangkap hubungan yang lebih kompleks.

G. Pembelajaran Tak Terawasi (Unsupervised Learning)

Pembelajaran tanpa pengawasan adalah teknik pembelajaran mesin, di


mana tidak perlu mengawasi modelnya. Sebaliknya, perlu mengizinkan model
bekerja sendiri untuk menemukan informasi. Ini terutama berkaitan dengan data
yang tidak berlabel.

16
Algoritme pembelajaran tanpa pengawasan memungkinkan melakukan
tugas pemrosesan yang lebih kompleks dibandingkan dengan pembelajaran yang
diawasi. Meskipun, pembelajaran tanpa pengawasan bisa lebih tidak terduga
dibandingkan dengan pembelajaran alami lainnya dalam pembelajaran
pembelajaran dan metode penguatan.

Mengapa Pembelajaran Tanpa Pengawasan?

Berikut, alasan utama untuk menggunakan Pembelajaran Tanpa Pengawasan:

1. Pembelajaran mesin tanpa pengawasan menemukan semua jenis pola yang


tidak diketahui dalam data.
2. Metode yang tidak diawasi membantu Anda menemukan fitur yang dapat
berguna untuk kategorisasi.
3. Itu terjadi secara real time, sehingga semua data masukan akan dianalisis
dan diberi label di hadapan peserta didik.
4. Lebih mudah untuk mendapatkan data tanpa label dari komputer daripada
data berlabel, yang membutuhkan intervensi manual.

Misalnya , ada gambar yang memiliki anjing dan kucing yang belum pernah
terlihat. 
 

Dengan demikian mesin tidak mengetahui fitur anjing dan kucing sehingga kami
tidak dapat mengkategorikannya pada anjing dan kucing. Tetapi dapat
mengkategorikan mereka menurut persamaan, pola, dan perbedaannya yaitu kita
dapat dengan mudah mengkategorikan gambar di atas menjadi dua
bagian. Pertama pertama mungkin berisi semua foto yang memiliki anjing di

17
dalamnya dan bagian kedua mungkin berisi semua foto yang memiliki kucing di
dalamnya. Di sini Anda tidak belajar apa pun sebelumnya, berarti tidak ada data
atau contoh pelatihan. 
 Ini memungkinkan model untuk bekerja sendiri untuk menemukan pola dan
informasi yang sebelumnya tidak terdeteksi. Ini terutama berkaitan dengan data
yang tidak berlabel.

Pembelajaran tanpa pengawasan diklasifikasikan ke dalam dua kategori


algoritma: 

 Pengelompokan : Masalah pengelompokan adalah saat Anda ingin


menemukan pengelompokan yang melekat dalam data, seperti
mengelompokkan pelanggan menurut perilaku pembelian.
 Asosiasi : Masalah pembelajaran aturan asosiasi adalah saat Anda
ingin menemukan aturan yang menjelaskan sebagian besar data
Anda, seperti orang yang membeli X juga cenderung membeli Y.
Jenis Pembelajaran Tanpa Pengawasan:

Kekelompokan
1. Eksklusif (mempartisi)
2. Aglomeratif
3. Tumpang tindih
4. Probabilistik
Jenis Clustering: -
1. Pengelompokan hierarki
2. Pengelompokan K-means
3. Analisis Komponen Utama
4. Dekomposisi Nilai Singular
5. Analisis Komponen Independen

18

Anda mungkin juga menyukai