Herlinda y sihombing
193130503006
Jurusan teknik informatika
Fakultas Teknik
Universitas Palangkaraya
2022
Abstrak
Model pembelajaran mendalam mewakili paradigma pembelajaran baru dalam
kecerdasan buatan (AI) dan pembelajaran mesin. Hasil terobosan baru-baru ini
dalam analisis gambar dan pengenalan ucapan telah menghasilkan minat yang
sangat besar di bidang ini karena juga aplikasi di banyak domain lain yang
menyediakan data besar tampaknya mungkin dilakukan. Sisi negatifnya,
metodologi matematika dan komputasi yang mendasari model pembelajaran
mendalam sangat menantang, terutama bagi ilmuwan interdisipliner. Untuk
alasan ini, kami menyajikan dalam makalah ini tinjauan pendahuluan tentang
pendekatan pembelajaran mendalam termasuk Deep Feedforward Neural
Networks (D-FFNN), Convolutional Neural Networks (CNNs), Deep Belief
Networks (DBNs), Autoencoder (AEs), dan Long Short- Jaringan Term Memory
(LSTM). Model-model ini membentuk arsitektur inti utama dari model
pembelajaran mendalam yang saat ini digunakan dan seharusnya termasuk
dalam kotak alat ilmuwan data mana pun. Yang penting, blok bangunan
arsitektur inti tersebut dapat disusun secara fleksibel— dengan cara yang
hampir mirip Lego—untuk membangun arsitektur jaringan khusus aplikasi
baru. Oleh karena itu, pemahaman dasar tentang arsitektur jaringan ini penting
untuk dipersiapkan untuk perkembangan AI di masa mendatang.
Kata kunci: pembelajaran mendalam, kecerdasan buatan, pembelajaran mesin,
jaringan saraf, model prediksi, ilmu data
Abstract
Deep learning models stand for a new learning paradigm in artificial intelligence (AI) and
machine learning. Recent breakthrough results in image analysis and speech recognition
have generated a massive interest in this field because also applications in many other
domains providing big data seem possible. On a downside, the mathematical and
computational methodology underlying deep learning models is very challenging,
especially for interdisciplinary scientists. For this reason, we present in this paper an
introductory review of deep learning approaches including Deep Feedforward Neural
Networks (D-FFNN), Convolutional Neural Networks (CNNs), Deep Belief
Networks (DBNs), Autoencoders (AEs), and Long Short-Term Memory (LSTM)
networks. These models form the major core architectures of deep learning models
currently used and should belong in any data scientist’s toolbox. Importantly, those
core architectural building blocks can be composed flexibly—in an almost Lego-like
manner—to build new application-specific network architectures. Hence, a basic
understanding of these network architectures is important to be prepared for future
developments in AI.Keywords: deep learning, artificial intelligence, machine
learning, neural networks, prediction models, data science
1.PENDAHULUAN
Kita hidup di era data besar di mana semua bidang sains dan industri
menghasilkan data dalam jumlah besar. Ini menghadapkan kita pada tantangan
yang belum pernah terjadi sebelumnya mengenai analisis dan interpretasi
mereka. Untuk alasan ini, ada kebutuhan mendesak akan pembelajaran mesin
baru dan metode kecerdasan buatan yang dapat membantu dalam memanfaatkan
data tersebut. Pembelajaran mendalam (DL) adalah metodologi baru yang saat
ini menerima banyak perhatian (Hinton et al., 2006). DL menggambarkan
keluarga algoritme pembelajaran daripada metode tunggal yang dapat
digunakan untuk mempelajari model prediksi kompleks, misalnya jaringan saraf
multi-layer dengan banyak unit tersembunyi (LeCun et al., 2015). Yang penting,
pembelajaran mendalam telah berhasil diterapkan pada beberapa masalah
aplikasi. Misalnya, metode pembelajaran mendalam mencetak rekor klasifikasi
digit tulisan tangan dari kumpulan data MNIST dengan tingkat kesalahan
0,21% (Wan et al., 2013). Area aplikasi lebih lanjut termasuk pengenalan
gambar (Krizhevsky et al., 2012a; LeCun et al., 2015), pengenalan suara (Graves
et al., 2013), pemahaman bahasa alami (Sarikaya et al., 2014), pemodelan
akustik (Mohamed et al., 2011) dan biologi komputasi (Leung et al., 2014;
Alipanahi et al., 2015; Zhang S. et al., 2015; Smolander et al., 2019a,b).
2. METODE PENELITIAN
Model jaringan saraf tiruan telah digunakan sejak sekitar tahun 1950-an
(Rosenblatt, 1957); namun, gelombang jaringan saraf Gambaran umum fungsi
aktivasi yang sering digunakan untuk model neuron.Model jaringan saraf tiruan
telah digunakan sejak sekitar tahun 1950-an (Rosenblatt, 1957); namun,
gelombang jaringan saraf pembelajaran dalam saat ini dimulai sekitar tahun
2006 (Hinton et al.,
Karakteristik umum dari banyak variasi model pembelajaran mendalam yang
diawasi dan tidak diawasi adalah bahwa model inimemiliki banyak lapisan
neuron tersembunyi yang dipelajari,
1. Neocognitron sangat mirip dengan arsitektur perkembangan
utama jaringan syaraf tiruan : garis
Sejarah jaringan saraf panjang, dan banyak orang telah berkontribusi terhadap
perkembangannya selama beberapa dekade. Mengingat ledakan minat dalam
pembelajaran mendalam baru-baru ini, tidak mengherankan bahwa penugasan
kredit untuk perkembangan utama bukanlah hal yang tidak kontroversial.
Berikut ini, kami bertujuan pada presentasi yang tidak memihak yang hanya
menyoroti kontribusi yang paling terkenal.
Pada tahun 1943, model matematika pertama dari sebuahneuron diciptakan
olehMcCulloch dan Pitts (1943). Model ini bertujuan untuk memberikan
formulasi abstrak untuk fungsi neuron tanpa meniru mekanisme biofisik yang
nyata neuron biologis. Menarik untuk dicatat bahwa model ini tidak
mempertimbangkan pembelajaran.
Pada tahun 1949, ide pertama tentang pembelajaran bermotivasi biologis
dalam jaringan saraf diperkenalkan olehHebb (1949). Pembelajaran Hebbian
adalah bentuk pembelajaran jaringan saraf tanpa pengawasan.
Pada tahun 1957, Perceptron diperkenalkan olehRosenblatt(1957). Perceptron
adalah jaringan saraf lapisan tunggal yang berfungsi sebagai pengklasifikasi
biner linier. Dalam bahasa modern JST, Perceptron menggunakan fungsi
Heaviside sebagai fungsi aktivasi (lihatTabel 1).
Pada tahun 1960, aturan Delta Learning untuk mempelajari Perceptron
diperkenalkan olehJanda dan Hoff (1960). Aturan Pembelajaran Delta, juga
dikenal sebagai aturan Pembelajaran Widrow & Hoff atau aturan Least Mean
Square, adalah aturan pembelajaran penurunan gradien untuk memperbarui
bobot neuron. Ini adalah kasus khusus dari algoritma backpropagation.
Pada tahun 1968, metode yang disebutMetode Kelompok Penanganan Data
(GMDH) untuk pelatihan jaringan saraf diperkenalkan oleh Ivakhnenko
(1968). Jaringan ini secara luas dianggap sebagai jaringan pembelajaran
mendalam pertama di dunia Feedforward Multilayer PerceptronTipe. Misalnya
kertas (Ivakhnenko, 1971) menggunakan jaringan GMDH yang dalam dengan
8 lapisan.Menariknya, jumlah lapisan dan unit per lapisan dapat dipelajari dan
tidak ditetapkan sejak awal.
Pada tahun 1969, makalah penting olehMinsky dan Papert (1969) diterbitkan
yang menunjukkan bahwa masalah XOR tidak dapat dipelajari oleh
Perceptron karena tidak dapat dipisahkan secara linear. Ini memicu fase jeda
untuk jaringan saraf yang disebut "musim dingin AI".
Pada tahun 1974, error backpropagation (BP) telah disarankan untuk
digunakan dalam jaringan saraf (Werbos, 1974) untuk pembelajaran berbobot
secara terawasi dan diterapkan diWerbos (1981). Namun, metode itu sendiri
lebih tua (lihat misalnya,Linnainmaa, 1976).
Pada tahun 1980, jaringan saraf berlapis-lapis hierarkis untuk
pengenalan pola visual disebutNeokognitrondiperkenalkan oleh Fukushima
(1980). Setelah jaringan GMDH yang dalam (lihat di atas), the
Neokognitrondianggap sebagai NN buatan kedua yang pantas mendapatkan
atribut tersebutdalam.Itu diperkenalkanNN konvolusional
(hari ini disebut CNN). Neocognitron sangat mirip dengan arsitektur
modern,diawasi,Deep Feedforward Neural Networks (D-FFNN) (Fukushima,
2013).
Pada tahun 1982, Hopfield memperkenalkan jaringan saraf memori yang dapat
dialamatkan konten, yang sekarang disebut Jaringan Hopfield ( Hopfield, 1982).
Jaringan Hopfield adalah contoh untuk jaringan saraf berulang.
Pada tahun 1986, backpropagation muncul kembali di kertas olehRumelhart
dkk. (1986). Mereka menunjukkan secara eksperimental bahwa algoritme
pembelajaran ini dapat menghasilkan representasi internal yang berguna dan,
karenanya, dapat digunakan untuk tugas pembelajaran jaringan syaraf umum.
Pada tahun 1987, Terry Sejnowski memperkenalkan algoritma NETtalk
(Sejnowski dan Rosenberg, 1987). Program ini mempelajari cara mengucapkan
kata-kata bahasa Inggris dan dapat meningkat seiring waktu.
Pada tahun 1989, Jaringan Syaraf Konvolusional dilatih dengan algoritme
backpropagation untuk mempelajari digit tulisan tangan (LeCun et al., 1989).
Sistem serupa kemudian digunakan untuk membaca cek tulisan tangan dan kode
pos, memproses cek yang diuangkan di Amerika Serikat pada akhir 90-an dan
awal 2000-an.
Catatan: Pada 1980-an, gelombang kedua penelitian jaringan saraf muncul
sebagian besar melalui gerakan yang disebut koneksionisme ( Fodor dan
Pylyshyn, 1988). Gelombang ini berlangsung hingga pertengahan 1990-an.
Pada tahun 1991, Hochreiter mempelajari masalah mendasar dari setiap
jaringan pembelajaran mendalam, yang berkaitan dengan masalah tidak dapat
dilatih dengan algoritma backpropagation (Hochreiter, 1991). Studinya
mengungkapkan bahwa sinyal disebarkan oleh backpropagation baik menurun
atau meningkat tanpa batas. Jika terjadi pembusukan, ini sebanding dengan
kedalaman jaringan. Ini sekarang dikenal sebagai masalah gradien menghilang
atau meledak.
Pada tahun 1992, solusi parsial pertama untuk masalah ini telah disarankan
olehSchmidhuber (1992). Idenya adalah untuk melatih RNN dengan cara yang
tidak diawasi untuk mempercepat pembelajaran yang diawasi berikutnya.
Jaringan yang dipelajari memiliki lebih dari 1.000 lapisan dalam jaringan saraf
berulang.
Pada tahun 1995, jaringan saraf berosilasi telah diperkenalkan di Wang dan
Terman (1995). Mereka telah digunakan dalam berbagai aplikasi seperti
segmentasi gambar dan ucapan dan menghasilkan deret waktu yang kompleks
(Wang dan Terman, 1997; Hoppensteadt dan Izhikevich, 1999; Wang dan
Brown, 1999; Soman et al., 2018).
Pada tahun 1997, model terawasi pertama untuk pembelajaran RNN
diperkenalkan olehHochreiter dan Schmidhuber (1997), yang disebut Memori
Jangka Pendek Panjang (LSTM). LSTM mencegah masalah sinyal kesalahan
yang membusuk antar lapisan dengan membuat jaringan LSTM "mengingat"
informasi untuk jangka waktu yang lebih lama.
Pada tahun 1998, algoritma Stochastic Gradient Descent (pembelajaran
berbasis gradien) digabungkan dengan algoritma backpropagation untuk
meningkatkan pembelajaran di CNN (LeCun et al., 1989). Akibatnya, LeNet-5,
jaringan konvolusional 7 tingkat, diperkenalkan untuk mengklasifikasikan angka
tulisan tangan pada cek.
Pada tahun 2006, secara luas dianggap sebagai tahun terobosan karena pada
Hinton et al. ( 2006)ditunjukkan bahwa jaringan saraf yang disebut Deep Belief
Networks dapat dilatih secara efisien dengan menggunakan strategi yang disebut
pra-pelatihan lapisan serakah. Ini memprakarsai gelombang ketiga jaringan saraf
yang juga menggunakan istilah tersebutpembelajaran yang mendalampopuler.
modern,diawasi,Deep Feedforward Neural Networks (D-FFNN) (Fukushima,
2013).
Pada tahun 1982, Hopfield memperkenalkan jaringan saraf memori yang dapat
dialamatkan konten, yang sekarang disebut Jaringan Hopfield ( Hopfield, 1982).
Jaringan Hopfield adalah contoh untuk jaringan saraf berulang.
Pada tahun 1986, backpropagation muncul kembali di kertas olehRumelhart
dkk. (1986). Mereka menunjukkan secara eksperimental bahwa algoritme
pembelajaran ini dapat menghasilkan representasi internal yang berguna dan,
karenanya, dapat digunakan untuk tugas pembelajaran jaringan syaraf umum.
Pada tahun 1987, Terry Sejnowski memperkenalkan algoritma NETtalk
(Sejnowski dan Rosenberg, 1987). Program ini mempelajari cara mengucapkan
kata-kata bahasa Inggris dan dapat meningkat seiring waktu.
Pada tahun 1989, Jaringan Syaraf Konvolusional dilatih dengan algoritme
backpropagation untuk mempelajari digit tulisan tangan (LeCun et al., 1989).
Sistem serupa kemudian digunakan untuk membaca cek tulisan tangan dan kode
pos, memproses cek yang diuangkan di Amerika Serikat pada akhir 90-an dan
awal 2000-an.Catatan: Pada 1980-an, gelombang kedua penelitian jaringan saraf
muncul sebagian besar melalui gerakan yang disebut koneksionisme ( Fodor dan
Pylyshyn, 1988). Gelombang ini berlangsung hingga pertengahan 1990-an.
Pada tahun 1991, Hochreiter mempelajari masalah mendasar dari setiap
jaringan pembelajaran mendalam, yang berkaitan dengan masalah tidak dapat
dilatih dengan algoritma backpropagation (Hochreiter, 1991). Studinya
mengungkapkan bahwa sinyal disebarkan oleh backpropagation baik menurun
atau meningkat tanpa batas. Jika terjadi pembusukan, ini sebanding dengan
kedalaman jaringan. Ini sekarang dikenal sebagai masalah gradien menghilang
atau meledak.
Pada tahun 1992, solusi parsial pertama untuk masalah ini telah disarankan
olehSchmidhuber (1992). Idenya adalah untuk melatih RNN dengan cara yang
tidak diawasi untuk mempercepat pembelajaran yang diawasi berikutnya.
Jaringan yang dipelajari memiliki lebih dari 1.000 lapisan dalam jaringan saraf
berulang.
Pada tahun 1995, jaringan saraf berosilasi telah diperkenalkan di Wang dan
Terman (1995). Mereka telah digunakan dalam berbagai aplikasi seperti
segmentasi gambar dan ucapan dan menghasilkan deret waktu yang kompleks
(Wang dan Terman, 1997; Hoppensteadt dan Izhikevich, 1999; Wang dan
Brown, 1999; Soman et al., 2018).
Pada tahun 1997, model terawasi pertama untuk pembelajaran RNN
diperkenalkan olehHochreiter dan Schmidhuber (1997), yang disebut Memori
Jangka Pendek Panjang (LSTM). LSTM mencegah masalah sinyal kesalahan
yang membusuk antar lapisan dengan membuat jaringan LSTM "mengingat"
informasi untuk jangka waktu yang lebih lama.
Pada tahun 1998, algoritma Stochastic Gradient Descent (pembelajaran
berbasis gradien)
digabungkan dengan algoritma backpropagation untuk meningkatkan
pembelajaran di CNN (LeCun et al., 1989). Akibatnya, LeNet-5, jaringan
konvolusional 7 tingkat, diperkenalkan untuk mengklasifikasikan angka tulisan
tangan pada cek.
Pada tahun 2006, secara luas dianggap sebagai tahun terobosan karena pada
Hinton et al. (2006)ditunjukkan bahwa jaringan saraf yang disebut Deep Belief
Networks dapat dilatih secara efisien dengan menggunakan strategi yang
disebut pra-pelatihan lapisan serakah. Ini memprakarsai gelombang ketiga
jaringan saraf yang juga menggunakan istilah tersebutpembelajaran yang
mendalam populer.