Anda di halaman 1dari 12

- Perkembangan deep learning

- kaitan deep learning dengan artificial intelegent dan mesin learning


- jaringan aktivis sel neural Network

Dilihat dari perkembangan sejarah dari kecerdasan buatan kita bisa melihat dari berbagai
segi,bisa dilihat berdasarkan perkembangan dari revolusi industri jadi revolusi industri 1 2 3 dan
4, nah bisa juga bisa kita lihat berdasarkan perkembangan dari kecerdasan buatan itu sendiri jadi
dimulai pada tahun 1842 Ada Agusta menemukan bahasa pemrograman, dilanjutkan oleh Alan
turing yang menemukan metode perilaku cerdas nah dari situ terus berlanjut sampai tahun
1956 ,1975 sampai dengan sekarang. Nah dari sini kita sudah bisa melihat ya perkembangan AI
ini disini tidak selalu maju ya atau tidak selalu booming. Nah di sini kita lihat bisa dibagi menjadi
tiga fase booming nya AI dari tahun 1950-1960, kita katakan sebagai booming pertama AI,
kemudian 1980 sampai 90 itu booming AI yang kedua, dan 2010 sampai sekarang boomingnya AI
yang ketiga. Nah di sini perkembangan deep learning ini kita mulai bisa dikatakan dimulai dari
tahun 2006 atau 2010 sampai dengan sekarang karena disini sudah banyak Framework tools
yang bisa mendukung kinerja dari deep learning misalnya sebagai contoh sekarang sudah ada
komputasi paralel atau GPU, sehingga memudahkan untuk membantu perhitungan matematik
yang kompleks.

Nah di sini kalau kita lihat sebelumnya beberapa perusahaan yang besar seperti Google
Facebook Amazon itu sudah berani untuk menginvestasikan pada deep learning. sebagai contoh
misalnya pada tahun 2006 Google berani menginvestasikan kepada Dikmen yaitu perusahaan
yang bergerak padadeep learning , kemudian dilanjutkan pada tahun 2016 Facebook Amazon
sudah bisa Sudah berani untuk menginvestasikan pada deep learning nih dan terakhir Hai
smartphone Xiaomi Apple sudah bisa menyusul untuk berinvestasi dalam kemajuan teknologi
deep learning. Dari sini kita sudah bisa melihat ya perkembangan dari deep learning yang
semakin hari semakin dibutuhkan semakin pesat nah Pada kesempatan kali ini kita akan
memahami sebenarnya apa itu Deep learning, Hubungannya apa dengan machine -learning dan
AI kemudian jaringannya Seperti apa?

Deep learning itu kalau dilihat dari Gambar ini merupakan subset dari machine-learning dan
machine learning kita tahu sendiri merupakan subset dari AI ya jadi dari artificial intelegent itu
suatu sistem yang berusaha dapat meniru kecerdasan manusia,kemudian lebih spesifik lagi
machine learning yaitu salah satu teknik ai yang berkaitan dengan pembelajaran data yang
dirancang dengan menggunakan algoritma. jadi sesuai dengan namanya machine learning yaitu
mesin yang belajar dari data agar pintar seperti itu singkatnya, kemudian deep learning salah
satu cabang machine-learning yang menggunakan artificial neural Network atau jaringan syaraf
tiruan untuk menyelesaikan permasalahan yang dikhususkan pada data yang tidak terstruktur
karena kan sebagaimana kita tahu sebelumnya ya kalau data zaman dulu itu sudah terstruktur
dalam bentuk tabel atau sudah rapih yah Nah sekarang kan kita lihat teknologi sekarang data itu
enggak Hanya berupa tabel seperti itu bisa saja bisa berupa suara bisa berupa gambar nah
seperti itu, itu mulai deep learning telah menggunakan teknologi deep learning. Nah karena
disini deep learning ada kaitannya dengan Artificial neural network pada kali ini kita akan
membahas singkat mengenai Arrtificial neural Network atau sering dikatakan jaringan syaraf
tiruan yaitu jaringan saraf yang biasanya menggunakan jaringan yang hanya memiliki satu atau
dua lapisan tersembunyi atau hidden layer, jika lapisan jaringan sarafnya atau hidden layer
lebih dari dua layer maka itu dinamakan deep learning arsitektur jaringan ini kurang kompleks
dan membutuhkan lebih banyak informasi tentang data input sehingga dapat menentukan
algoritma mana yang dapat digunakan, sedangkan pada algoritma jaringan syaraf deep learning
tidak mengeluarkan memerlukan informasi apapun terhadap data yang akan mempelajarinya
dan algoritmanya akan secara mandiri melakukan penyetelan atau cunning dan pemilihan
model yang paling optimal, nah disitu udah bisa kelihatan tidak memerlukan effort yang banyak
dalam mengetahui informasi dari data nanti dari algoritma yang sendiri yang akan melakukan
cunning sendiri. contohnya banyak seperti deteksi objek, pengenalan suara, NLP, dan
sebagainya nah disini kita bisa lihat ya disini lapisan layer deep learning nah tapi sana yardip
learning ini kita bisa bedakan antara simpel neural Network dan deep learning neural Network
disini terdiri dari tiga bagian input layer hidden layer output layer nah dikatakan hidden layer
lapisan tersembunyi karena didalamnya bisa saja berisi dari ratusan layer ya jadi makanya
dikatakan hidden layer itu untuk deep learning

jadi jaringan ini terdiri mengikuti syarat kerja otak manusia yang dimulai dari antar neuron itu
saling terhubung dihubungkan dengan akson sehingga mereka saling berkomunikasi, terkait
saling terkait, dan saling berkomunikasi nah dari situ ANN itu meniru cara kerja dari sistem
otak manusia, Nah dari sini kemudian dari satu neuron ke neuron yang lain ada harus melalui
suatu fungsi aktivasi , kita bisa dilihat sebelah kanannya fungsi aktivasi , jadi di fungsi aktivasi itu
dari input misalnya x0 x1 s dan x2 maka untuk menuju ke neuron selanjutnya harus dilakukan
dulu pengupdetan-pengupdetan bobot. bisa dikatakan dikalikan dengan bobot w misalnya
notasinya Kemudian ditambahkan dengan Bayas kemudian kita jumlah kan dan dimasukkan
kepada fungsi aktivasi, disini fungsi aktivasi ini sebenernya tujuannya ada fungsi aktivasi untuk
mengakomodir fungsi non linearitas dari data, karena dalam dunia nyata enggak selalu kita
menemukan semua permasalahan itu bentuknya linear, malah lebih banyak nonlinear misalnya
sebagai contoh kita naik taksi kalau Argo semakin jauh harganya semakin naik Nah itu berarti
bersifat linier, tapi kan nggak selamanya seperti itu misalnya kasus yang kedua kita mau
membeli barang nah membeli barang enggak hanya berdasarkan keperluan aja pasti di situ ada
faktor dari apa fungsinya dari bentuknya, dari kebutuhannya, jadi beberapa faktor yang lain
banyak yang mempengaruhi keputusan membeli barang nah itu termasuk nonlinear . nah disini
informasi dari informasi dari neuron input ini Kemudian dimasukkan ke fungsi aktivasi untuk
menghasilkan klasifikasi Nah di sini ada beberapa fungsi aktivasi misalnya ada sigmoid ada
tangen hiperbolik Nah itu biasanya digunakan untuk klasifikasi antara dua misalnya dia
termasuk apel atau bukan seperti itu Banery classification, nah Selain itu misalnya menentukan
dia termasuk dalam kategori mana Nah itu biasanya digunakan soft Max fungsi aktivasi fungsi
aktivasinya softmax ,dan kalau prediksi biasanya menggunakan real Hai nah jadi kita juga harus
tahu ya Menggunakan fungsi aktivasi yang tepat untuk permasalahan apa gitu jadi untuk
klasifikasi pakai apa untuk prediksi pakai apa seperti itu ya

disini struktur pemodelan jaringan perbedaan antara mesin learning dan deep learning dari sini
kita sudah bisa melihat ya perbedaan yang cukup mencolok antara machine-learning dan deep
learning nah Disini deep learning berbeda dari teknik mesin learning yang tradisional karena
deep learning secara otomatis melakukan representasi dari data seperti gambar video atau teks
tanpa memperkenalkan aturan kode atau pengetahuan domain manusia sedangkan di
machine-learning itu kita harus melakukan beberapa tahap dulu sebelum dilakukan training jadi
itu dikatakan feature Extraction biasanya disini dimasukkan ilmu mengenai computer Vision
misalnya kalau inputnya berupa Citra ya dari situ setelah feature Extraction dirapihkan lah
datanya baru klasifikasi dan selanjutnya output. nah ini sebenarnya kalau dilihat dari sini nih
ada empat langkah yang harus di siapkan oleh machine-learning, Nah di sini kalau deep learning
yang penting inputnya itu sudah seragam gitu Istilahnya ya jadi misalnya ukurannya udah sama
udah tinggal nanti dimasukkan ke algoritmanya yang akan mempelajari sendiri kira-kira
modelnya Seperti apa? nah misalnya kalau modelnya yang pertama itu masih kurang dia akan
pakai algoritma lagi untuk mempelajari kesalahan sebelumnya jadi ada salah satu contoh
namanya itu backpropagation, disitu akan mengupdate lagi white nya agar mudah diperoleh
error yang semakin kecil atau akurasi yang semakin baik. ini sebenernya gambaran dari deep
learning yang menggunakan jaringan saraf manusia jadi disimulasikan seperti cara kerja
Bagaimana otak bekerja Jadi intinya dari satu neuron ke neuron yang lain itu saling terhubung
saling memberikan umpan balik Jadi kalau misalnya masih ada kesalahan dia belajar lagi gitu
sampai dengan memperoleh error yang diharapkan

ada beberapa perbedaan atau kelebihan dan kekurangan antara machine-learning dan
deepening yang pertama kalah kita lihat berdasarkan data yang pertama algoritma deep
learning tidak mampu mengolah data yang jumlah kecil secara maksimal Jadi maksudnya
kurang maksimal bisa tapi kurang maksimal, tapi kalau masih mending bisa ya jadi data-data
deep learning itu membutuhkan data yang sangat besar semakin banyak Data maka dia akan
semakin banyak belajar dan akurasinya semakin Bagus, ya jadi disini data itu lebih untuk deep
learning lebih khusus dia harus menggunakan data yang sangat banyak kalau machine-learning
sedikit juga bisa

Nah kemudian untuk hardware naik di sini hardware itu untuk deep learning membutuhkan JPU
jadi untuk komputer-komputer yang tidak kompatibel atau tidak tersedia gpu maka dia akan
mengalami kelambatan dalam memproses data deep learning baik itu karena data banyak
ataupun karena perhitungannya yang sangat kompleks ya jadi Disini deeplearningj
membutuhkan sekali GPU. tapi sekarang ada solusi untuk yang baik untuk yang belum memiliki
GPU misalnya, yaitu melalui google collabs, kita bisa memanfaatkan GPU atau cloud computing
yang ada di Google disitu kalian hanya cuman membuat akun aja kemudian kalian
mengaktifkan GPU nah dari situ tanpa membebani laptop kita komputer kita maka GPU dari
Google collabs yang mengerjakannya. itu suatu kemudahannya jadi tidak ada alasan untuk kita
untuk menghindari tidak belajar deep learning karena komputernya tidak kompetibel, Nah itu
tidak bisa tidak menjadi alasan Karena sekarang banyak sekali bantuan ya bisa melalui Google
kolep atau Kegel ya jika gagal ini sebenernya ini berisi tentang eh seperti kompetisi Jadi
biasanya perusahaan memberikan suatu permasalahan misalnya Bagaimana cara memprediksi
harga saham misalnya dia akan memasukkan Kegel kemudian dia akan memilih jawaban mana
yang paling akurat gitu nanti biasanya disitu ada beberapa Hadiah atau bisa saja langsung di
tarik menjadi pegawainya Nah itu kegel,

disini selanjutnya kita bisa lihat berdasarkan fitur engineering nya nah machine learning
bertugas untuk identifikasi fitur yang diterapkan dan membuat kode secara manual sesuai
domain dan tipe data sedangkan kalau deep learning algoritmanya sendiri yang berusaha
mempelajari fitur-fitur tingkat tinggi dari data. jadi ini machine-learning proses-proses yang
secara manual itu feature Extraction itu ya

kemudian yang ke empat pendekatan penyelesaian masalah, nah di algoritma machine-learning


pemecahan masalahnya dibagi menjadi beberapa bagian permasalahan karena di machine-
learning hanya bisa mengerjakan satu permasalahan ya Nah kemudian diselesaikan secara
terpisah kemudian penyelesainnya digabungkan kembali Nah itu sebenarnya termasuk kurang
efektif atau kurang efisien, Nah untuk deep learning sedangkan deep learning Mampu
menyelesaikan masalah secara keseluruhan . nah disini tampak kelebihan dari deep learning ya

dan terakhir kita bisa melihat berdasarkan waktu eksekusi nah algoritma machine-learning bisa
melakukan eksekusi dari hanya satu menit sampai hitungan beberapa jam sedangkan deep
learning membutuhkan waktu yang jauh lebih lama dari itu, karena disini mempertimbangkan
data yang cukup besar dan perhitungan yang kompleks

deep learning salah satu contoh dari model aksitektur yang sederhana ini salah satu contohnya
adalah convolutional neural Network ya di sini kalau layernya lebih dari dua atau itu sering
dikatakan Deep convolutional neural Network , nah sebenarnya jaringan convolutional neural
Network sama dengan jaringan ANN pada deep learning biasa ya hanya saja Dia memiliki ciri
khas memiliki layer yang dinamakan layak konvolusi nya di dalam layar konvolusi ini disini
terjadi beberapa operasi seperti feature Extraction , match pooling dan beberapa hal yang
dilakukan pada layer konvolusi Nah di Selain itu dia juga ada voli dilanjutkan dengan fully
connected layer

deep learning itu adalah metode yang lebih canggih daripada machine learning tahun napis saya
lihat tadi banyak banget batasannya ya Iya resep waktunya juga lebih lama arus hardware-nya
juga lebih lebih terasa manfaatnya kalau menggunakan hardware apa GPU seperti itu , tapi
sekarang deep learning sedang buming boomingnya bergaya tuh iya betul banyak banget
dipakai Google sudah memakai lebih lemaknya berarti kan emang sebenarnya deep learning itu
sangat bagus sekali ya Iya bermanfaat ya sesak untuk kehidupan kita ya sekarang yang sangat
kompleks itu sangat bermanfaat

Jadi yang pertama kita sudah mempelajari mengenai perkembangan deep learning sampai
definisi, sampai dengan arsitektur dari activision neural Network dari deep learning untuk
selanjutnya salah satu contoh metode yang sering digunakan deep learning yaitu convolutional
neural Network disini akan kita bahas mengenai arsitektur algoritma dan model evaluasinya

Apa itu CNN? nah disini CNN merupakan salah satu metode Deep learning yang biasa
digunakan untuk mengolah gambar atau video ya di sini erat sekali kaitanya dengan computer
Vision secara garis besar convolutional neural Network tidak jauh beda dengan neural Network
biasa, di sini karena ada beberapa layer dan setiap neuron terdiri dari pengupdetan white
Bayes dan fungsi aktivasi . di sini ciri khas CNN ini convolutional neural Network ini memiliki
layer konvolusional kemudian dilanjutkan dengan layer fully connected
ini ilustrasi dari arsitektur convolutional neural Network ya jadi disini dibagi menjadi dua
bagian besar Yang pertama adalah feature extraction layer yang kedua adalah fully connected
layer

di dalam feature Extraction layer disini ini adalah proses feature learning di sini ada proses
konvolusi, selanjutnya di dalam proses tersebut kita lakukan beberapa langkah agar sesuai
dengan apa yang kita harapkan misalnya gambarnya kita lakukan Straight atau padding
kemudian masuk ke layer pooling, pooling disitu ada beberapa jenis ada Max pooling ada
Everett fully nah disini

selanjutnya dari sini dilanjutkan pada fully connected layer yang sering dikatakan dengan
bagian atau fase klasifikasi nah hasil dari feature learning itu berupa fitur map Nanti sebelum
masuk ke fully connected dia akan dilakukan frighten atau dibuat menjadi Suatu vektor yang
kemudian saling terhubung dan saat ful konekted ini dan akhirnya masuk ke fungsi aktivasi ,
masuk ke layer output . di sini berikut ada penjelasannya untuk feature Extraction layer proses
yang terjadi pada bagian ini adalah melakukan encoding dari sebuah image menjadi fitur yang
berupa angka-angka yang merepresentasikan image tersebut. kalo dari Gambar angka-angka ini
merupakan piksel-piksel dari gambar ya semakin banyak pixel akan semakin baik karena dia
merepresentasikan informasi dari gambar tersebut , feature Extraction layer ini terdiri dari dua
bagian ya convolution layer dan fulling layer namun ada beberapa ever atau peneliti yang lain
yang tidak menggunakan pooling layer Nah di sini ada simulasinya bagaimana konvolusional
layer bekerja jadi konvolusional er terdiri dari neuron yang tersusun sedemikian rupa sehingga
membentuk suatu filter dengan panjang dan lebarnya itu dari Vixal nya ya jadi langkah-
langkahnya itu pertama kita harus menentukan ukuran dari filternya atau kernelnya ya
Kemudian dari situ kita harus eh menentukan juga Apakah kita lakukan seratnya berapa
pergeserannya atau padding perlu dilakukan Fading atau enggak ini disesuaikan dengan output
yang output tujuan kita Nah kita bisa lihat dari sini misalnya ada Citra ukuran lima kali lima ya
dari si lo dilakukan Straight yaitu satu kemudian V dingin ditambah satu ini jadi sekitarnya kita
tambahkan nol ya dengan tujuan yang diharapkan menghasilkan output nya itu berukuran tiga
kali tiga seperti itu ya jadi pergeseran itu dinamakan Straight dah penambahan pixel
disekitarnya itu dinamakan Fading enggak Straight adalah parameter yang menentukan
beberapa jumlah pergeseran filter jika anak nilai Straight nya satu maka convolution filternya
akan bergeser sebanyak satu piksel-piksel secara horizontal selalu turunnya vertikal semakin
kecil Straight maka akan semakin Detail informasi yang kita dapatkan dari sebuah input namun
membutuhkan komputasi yang lebih jika dibandingkan dengan streat yang besar kalau seratnya
kalau besar ledekan ada yang lengkap ya loncat Berarti ada informasi yang hilang di-enter itu
jadi sih lebih baik kecil tapi yang nggak terlalu ah kecil karena akan memperbesar
perhitungannya yaitu saling berpengaruh kemudian di perlu diperhatikan bahwa dengan
menggunakan Straight yang kecil kita tidak selalu akan mendapatkan performa yang bagus itu
tadi ya jadi perhitungannya lebih banyak kemudian tadi pending pending itu dengan
penambahan sekitarnya itu speakernya nol ya seringnya digunakan nol tapi nggak selalu no bisa
aja satu Fading atau Zero padding adalah parameter menentukan jumlah pixel berisi nilai nol itu
Zero trading yang akan ditambahkan di setiap sisi dari input dengan tujuan Untuk
memanipulasi dimensi output dari convolution layar yahfi cermatnya Oh ya ini tujuannya Untuk
memanipulasi dimensi output jadi kalau outputnya ingin ukuran tiga kali tiga Straight nya satu
maka mungkin inputnya masih kurang terlalu kecil maka ditambahkan freezing untuk sekitarnya
gitu ya tujuannya kemudian dengan menggunakan padding kita akan mengukur dimensi output
agar tetap sama seperti dimensi input atau setidaknya tidak berkurang secara drastis sehingga
kita bisa menggunakan convolution layer yang lebih dalam sehingga lebih banyak fitur yang
berhasil di ekstrak tidak banyak informasi yang hilang ya Jadi cukup mewakili lahir kemudian
meningkatkan performa model karena convolution layer akan fokus pada informasi yang
sebenarnya yaitu yang berada diantara Zero padding tersebut Hai Nah selanjutnya setelah
dilakukan operasi konvolusi tadi kita mau sebelum masuk ke nyaron selanjutnya dimasukkan
kedalam fungsi aktivasi ya fungsi aktivasi berada pada tahap sebelum melakukan pooling layer
ya Jadi sebelum pooling itu jadi setelah melakukan Strike Keding selalu dimasukkan ke fungsi
aktivasi baru ke full link layer begitu ya gambaran Iya nah dan setelah melakukan proses
konvolusi ia cooling itu jadi pulih setelah konvolusi kemudian fungsi aktivasi baruku link layer
pada tahap ini nilai hasil konvolusi dikenakan fungsi aktivasi yaitu activation dinamakan
activation ya terdapat beberapa fungsi aktivasi yang digunakan nah seperti tadi yang sudah
saya jelaskan sebelumnya Eh ada beberapa fungsi aktivasi yang sering digunakan Jadi yang
pertama itu sigmoid kedua tangan hyperbolic yang ketiga soft Max keempat relu Sebenarnya
ada satu lagi mikir elo itu yang terbaru ya cuman ini yang umumnya sih sigmoid atau relu ya
Nah untuk mengetahui klasifikasi kan dua mengklasifikasikan 2 pilihan Ya seperti ia atau tidak
atau dia termasuk pir atau apel ya seperti itu itu biasanya menggunakan fungsi aktivasi sigmoid
atau tangan hangat hyperbolic ya Nah kemudian kalau berupa kategori dia termasuk dalam jadi
Sudah ada kategorinya tinggal dia memasuki dalam kategori yang mana itu biasa menggunakan
g-shock Max dan kalau prediksi biasanya menggunakan relu yah Nah di sini misalnya untuk
sigmoid kalau nilai yang dihasilkan lebih kecil dari misalnya lebih kecil dari nol maka dia
termasuk klasifikasi misalnya nol itu tergantung nol itu diartikan apa ya Kalau lebih diantara 0-1
maka dia termasuk ke klasifikasi yang pertama seperti itu ya Jadi ini intinya fungsi aktivasi itu
mengakomodir adanya sifat nonlinearitas dari data ya agar kita bisa menentukan secara pasti
dia termasuk kelompok yang mana seperti itu selanjutnya fungsi aktivasi pada relu nilai output
dari neuron bisa dinyatakan sebagai nol jika inputnya negatif jika nilai investasi fungsi aktivasi
Adobe aktif maka output dari orangnya adalah nilai input aktivasi tersendiri itu relief ya jadi
enggak hanya 01 ya dek karena Nadia biasanya digunakan saat prediksi nanti kita masuk bisa
lihat dari contoh Eh pada segmen 3 yah implementasi Nah sekarang setelah fungsi aktivasi
kemudian masuk ke dalam polling layer paling layar biasanya berada setelah convolution layar
ya ditemukan collection lahir tentu sudah masuk dalam fungsi aktivasi ya pada prinsipnya
cooling lahir terdiri dari sebuah filter dengan ukuran dan stretch tertentu yang bergeser pada
seluruh air area fitur map polling Andi umumnya digunakan ada dua ya biasanya Adam spooling
ada everace pooling Max berarti kita pilih mana yang terbesar kalau Everest cooling kita
lakukan rata-rata ya Hai teri Ahok kelompok yang dipilih tujuan kuliner itu apa untuk
mengurangi dimensi cermat sehingga mempercepat komputasi karena parameter yang harus
diupdate semakin sedikit dan mengatasi overfitting ya jadi pooling layer itu sudah jelas ya Kalau
lihat dari gambar dari dimensi ukurannya empat kali empat nanti berubah menjadi dua kali dua
anak ini Udah tentu sudah tentu akan mengurangi eh kinerja atau mempercepat komputasi
karena parameter yang digunakan juga lebih sedikit dibanding untuk ukuran matriksnya empat
kali empat Nah kalau dilaknat contoh dari gambar misalnya dilakukan Max pooling ya kita lihat
Oke pixel yang dua kali dua di atas kiri Kita dicari mana yang maksimum itu adalah 6 sebelah
kanannya itu delapan kiri bawah ketiga dan kanan bawah empat itu kalau kita menggunakan
Max spooling tapi kalau average berarti ah kalian buat rata-ratanya ya warna merah rata-
ratanya berapa misalnya Satu Tambah Satu tambah lima tambah enam dibagi empat yah 13
bagi empat seperti itu itu yang mengisi kolom yang merah Nah setelah setelah selesai
melakukan didalamnya 10 tadi dalam polling layar kemudian dilanjutkan pada layer fully
connected nah fitur map yang dihasilkan dari feature Extraction tadi yaitu melalui convolution
layer full link layer masih berbentuk multidimensional array sehingga harus melakukan flatten
jadi creamery save viterna menjadi sebuah vektor agar bisa digunakan sebagai input revoltech
konektor player ya Misalnya tadi ukurannya ah berapa tadi misalnya tiga dua kali 32 atau ah
nanti akan dibuat menjadi satu Factor ya jadi satu baris ya atau satu kolom nah disini agar bisa
eh digunakan sebagai input fully connected layer nah lapisan fully connected itu adalah lapisan
dimana semuanya Ron aktivitasnya dari aktivitas semuanya Ran itu dari lapisan sebelumnya
dan saling terhubung ya ini sebenarnya sama dengan jaringan syaraf tiruan biasa atau artificial
neural Network biasa jadi semua saling terhubung dan saling memberikan informasi ya setiap
aktivitas dari lapisan sebelumnya perlu diubah menjadi data satu dimensi sebelum dapat
dihubungkan ke semuanya Ron di lapisan fully connected Oh ya lapisan fully connected ini
bertujuan untuk mengolah data sehingga bisa diklasifikasikan perbedaan yang mencolok antara
fully connected dan layer dan lapis apa convolution layer adalah neuron Di lapisan convolution
nya convolution layer terhubung hanya ke daerah tertentu pada input jadi tidak semua jenis
diambil secara lokal lokal aja tadi yang kita harus menentukan Kernel size atau filternya itu itu
berarti yang kita ambil dari inputnya itu tidak keseluruhan tapi diambil secara lokal aja ya nah
tapi kalau fully connected dia logo seluruhnya orang itu saling terhubung keseluruhan ya Jadi
kalau kita menentukan ukuran Kernel = Hai ukuran input maka itu hoah convolution layer = a
fully connected Raya itu ya Nah di sini ada tahapan yang dinamakan dengan Drop That
regulates regularisation regularisation yah drop-out drop-out berarti membuang ya dropout
adalah teknik regularisasi jaringan syaraf dimana beberapa neuron akan dipilih secara acak dan
tidak dipakai selama pelatihan Nah di sini ada beberapa alasan ya kayak ada yang dibuang
karena apa tidak berperan secara signifikan gitu ya ada yang malah membuat komputasi Lebih
banyak lebih berat gitu jadi perannya itu kurang kurang signifikan sehingga bisa dilakukan Drop
Out yo yah jadi jaringannya itu apa Nyonya itu dibuang Akan diberhentikan sementara dan
bobot baru juga tidak diterapkan pada neuron tersebut saat melakukan training ya drop-out
merupakan proses mencegah terjadinya overheating dan juga mempercepat proses learning
Oh ya mempercepat proses learning tentu karena nyoron yang dipakai tidak sebanyak yang
seharusnya tadi ya dibuang yang tidak perlu sehingga mempercepat proses learning nya Drop
Out mengacu kepada menghilangkan neuron yang berupa hidden maupun layer yang visible
didalam jaringan Oh ya di sini dropout ini tujuannya mencegah terjadi overfitting yang
overfitting pernah dibahas sebelumnya ya overfitting itu Jadi jika eh Error saat pelatihannya itu
kecil atau akurasinya saat pelatihannya bagus tapi saat testingnya akurasinya kurang bagus ya
atau error ya lebih besar Nah itu dikatakan overfitting Nah dengan melakukan dropout ini bisa
membantu untuk mencegah terjadinya overfitting ini ilustrasinya ya contoh implementasi
dropout regulated recession nah ini yang sebelah kiri Ini aja jaringan syaraf biasa Kemudian
karena ini ada nyoron yang tidak berperan secara signifikan maka dibuang dan tidak diikutkan
dalam training maka eh eh Hai Apa jaringan syaraf setelah dilakukan road akan menjadi seperti
B ini ya Dari sini sudah terlihat otomatis dia akan mempercepat proses training karena Enggak
semua eh neuron yang ada kita pakai nah di Tahap terakhir pada convolutional neural Network
kita harus mengetahui seberapa bagus model atau arsitektur yang kita bentuk dengan cara
menghitung ah tingkat eh apa Model atau model evaluasinya ya atau sering dinamakan
confusion Matrix ini ada tiga jenis Confession matrik yang umumnya dipakai pada CNN Jadi
yang pertama dinamakan dengan akurasi kedua presisi ketiga recol ya akurasi ini merupakan
tingkat kedekatan antara nilai prediksi dengan nilai aktual hai hai yo yah Eh kebayang ya Aa
artinya ya jadi seberapa dekat antara nilai aktual dan nilai prediksi jadi semakin tinggi akan
semakin baik kedua presisi tingkat ketepatan antara informasi yang diminta oleh pengguna
dengan jawaban yang diberikan oleh sistem ini juga perlu ya karena kita juga perlu tahu apa
tepat tidaknya reda dari Yang permintaan pengguna dengan yang hasil diperoleh rasa
sistemnya ketiga recol tingkat keberhasilan sistem Dalam menemukan kembali sebuah
informasi Nah dari sini bisa dibuat confusion Matrix nya seperti di sebelah kanan atas ini
Hahaha Kalau yang atas ini mencerminkan nilai-nilai Hai sebenarnya yang sebelah kiri nih yang
baris ini nilai prediksi yah jadi disini kalau nilai sebenarnya itu truk dan nilai prediksinya benar
dinamakan dengan truk positif atau disingkat dengan TP ya kemudian Jika nilai sebenarnya itu
Fals dan eh nilai prediksinya itu true maka disebut disebut dengan fositif kemudian nilai
sebenarnya through nilai prediksinya faucet ufos negatif dan nilai sebenarnya fos dan
prediksinya Fauzi tutur negatif ya Dari sini bisa diambil Suatu formula untuk perhitungan
akurasi presisi dan rekor akurasi itu TP tambah TN tro positif ditambah turun negatif per Khan
presesi ini dan real ini nih contohnya ya untuk memahami Bagaimana menghitung the
Confession matriksnya misalnya kita ingin mengukur kinerja dari suatu mesin pemisah buah
apel dan pir untuk mengujinya kita akan memasukkan 100 buah apel dan 900 buah lain nah
hasil mesin ternyata memisahkan 110 yang dideteksi sebagai apel nah ternyata setelah dicek
kembali 90 yang merupakan benar-benar apa sedangkan 20 lainnya merupakan buah lainnya
dari sini kita bisa membuat Confession matriknya dari data yang didapat a benar dan
prediksinya benar berarti 90 ya Nah terus dari data yang didapat yaitu negatif atau fos dan nilai
yang diprediksinya benar berarti 20 Karena tadi kan 110 yang dibilang itu apel tapi ternyata 90
yang apel yaitu batik 20 ya Nah terus untuk nilai sebenarnya benar dan prediksinya salah itu
berarti 10 karena yang kita taruh itu 100 buah apel Ternate yang bener itu 90 jadi 10 dan turun
negatif itu 880 karena total yaitu yang buah lainnya itu 900 yang tadi salah itu 20900 dikurangi
28080 ini perhitungan akurasi presisi dan rekor Nah untuk selanjutnya kita akan membahas
mengenai implementasi deepening pada segmen 3 berikutnya Oke sangat nih penjelasannya
bukannya Terima kasih baik pengisi gtv kita akan jedaan namun perlu kami infokan bahwa adik-
adik mahasiswa jangan beranjak dulu nanti ada pengumuman pemenang quiz team teaching
the dua minggu 5 sama Minggu lakukan kek baik salah ngetik-ngetik kita akan kembali kita lihat
tidak program dekat ini Baik tunai Sayu TV serta adik-adik mahasiswa Gunadarma kembali lagi
di program acara literasi edisi khusus perkalian tim teaching mata kuliah komputasi big-data
tadi disegmen satu kita sudah diperkenalkan oleh Bu Feni mengenai di perning kemudian di
segmen 2 kita sudah dibahas mengenai salah satu metode dari diesel Ning yaitu convolution
reverb jadi tidak afdol jika kalau bisanya kita tidak membahas salah satu implementasi dari
dealer Nia buka ini silakan ibu Hai baik ah kita lanjutkan ya pada segmen 3 untuk segmen 12
Sudah cukup mengerti ya mengenai Apa itu Dik learning nah pada segmen 3 ini kita mau lihat
Bagaimana sih cara mengimplementasikan learning nah disini akan di berikan 3 contohnya yang
pertama pengenalan tulisan angka dengan data sheet mdvk niesya kedua untuk pengenalan
objek dan yang ketiga untuk klasifikasi objek yah jadi yang pertama di sini eh eh Hai
pengenalan karakter tulisan tangan dengan dataset mjlq2 disini kita menggunakan jaringan
Deep convolutional neural Network cleaned ya di sini misalnya ada angka tulisan 66 ini Citra 6
ini kemudian dibagi menjadi Khan ini scba jadi pixelnya itu dari satu sampai 255 nanti ini masih
messengeran itu akan saling terkoneksi apa saling terhubung saling berkomunikasi ya untuk
belajar untuk menebak nanti Citra Ini tuh bertulisan Angka berapa ya seperti itu Nah disini kita
menggunakan piton dengan library keras jadi diawali dengan pendefinisian kode lined ini ya di
kita mendefinisikan modul-modul terlebih dahulu disini kita menggunakan modul konvolusi
dua dimensi 2D Nah di sini kita melakukan pemanggilan label-label Ria model yang digunakan
juga kita menggunakan model sekuensial Jadi selain sekuensial itu ada yang namanya model
namanya model ya terus ada sekuensial ada layer seperti itu Nah Disini convolution yang
digunakan convolutions 2D Max schooling 2D kemudian fungsi aktivasi flatten dance itu
arsitektur yang kita Panggil untuk CNN kemudian datasheetnya datasheetnya m.ytb ini bisa kita
download deh Oh dengan mudah kemudian of times optimis Arya SG Dr MS Prof dan Adam ya
di sini kita definisikan jaringan dari lines jaring ini merupakan tahap konvolusional pertama
dengan aktivasi relu yang diikuti oleh Max pooling dan jaringan ini akan mempelajari 20 filter
convolutional yang masing-masing memiliki ukuran lima kali lima dimensi output sama dengan
input jadi akan menjadi 28 kali 28 ya convolution 2D adalah tahap pertama pada jaringan ini
maka selanjutnya ditentukan input shaft nya nya disini didefinisikan atau modeled yaitu
convolution 2D kenal size itu lima kali lima ya filternya wedding yaitu the same kemudian input
shaft nya kita definisikan kita pakai fungsi aktivasinya relo full size-nya 222222 ini dua ya bisa
ditulis dua juga straight nya dua ya kemudian tah rahab konvolusional kedua ini masih sama
dengan karena saya 5 redding relu Straight nya 20 saya dua kemudian pendefinisi telah
convolution layer kita lakukan pendefinisian fungsi standar flatten ya didefinisikan fungsi
standar untuk Selatan terhadap jaringan dan C itu dengan 500 neuron diikuti classifier softlens
dengan 10 kelas yah jadi karena ini 10 ke sangka itu kan 0123456789 jadi ada 10 kelas ya kita
menggunakan soft Max karena kita menentukan dia termasuk kategori Angka berapa seperti itu
ya kemudian ya ini masih pendefinisian arsitektur CNN ya ini ini aku kemudian dilakukan
training kita harus menentukan jumlah ebooknya beach situ seperti jumlah gambar yang
diperas Berapa jumlah gambar yang diproses sebelum dilakukannya update Widya selanjutnya
validation flight disini misalnya 0,2 jadi dari data misalnya Datanya ada 1000 kita bagi menjadi
0,2 nya 0,2 kali seribunya itu untuk kalibrasi data sisanya untuk training ya kemudian disini
dilakukan normalisasi ya dibagi dengan 255 jadi nilai Eto dari 0-1 semuanya dibuat seragam dari
ukuran dari isinya ya normalisasinya Nah kemudian dilakukan training baru kita siapkan data
untuk siap ditraining kemudian kita Panggil kompak compile ya Hai dan terakhir itu kita lakukan
evaluasi evaluasi itu disini kita menghitung akurasi Akurasi ya Untuk melihat seberapa bagus
kita bisa menampilkan dengan perintah print di sini ada Float apa slot dari perbandingan
antara hasil dari training dan hasil dari testing Nah dari sini output dihasilkan tes akurasi nya
sebesar 99 persennya cukup baik ya kalo dari gambar dilihat grafik yang berwarna biru itu grafik
yang ngetren Ning yang orange itu yang testing ya disini kita bisa coba-coba nih dari arsitektur
dari mulai coba-coba Berapa besar efeknya websitenya ternyata itu juga Berapa jumlah hidden
layer nya ternyata Hai mempengaruhi dari tingkat akurasinya ya Nah ini tergantung Kalian mau
arsitekturnya seperti apa kalau dari sini Saya baru mencoba mengenai perubahan jumlah
Evoque semakin banyak Evoque maupun jumlah hidden layer maka akurasi yang dihasilkan juga
semakin baik ya di sini yang paling baik itu dihasilkan 99% ini membuktikan bahwa kinerja di
planning cukup baik dalam mengenali karakter tulisan tangan angka ya Nah itu contoh yang
pertama Nah contoh yang kedua di sini implementasi sifar 10 nah ini juga sifat 10 merupakan
dataset yang isinya objek-objek ya sifat 10 berarti kita diberikan 10 objek yang berbeda ya Ada
shivaree bermacam-macam ya ini juga mudah untuk mendownload Hai Aa cari di Google sudah
ada datasheetnya disini untuk sifat 10 diambil objek-objek airplane pesawat automobiles mobil
bet cats dear dogcroc hours save dan truk edisi ini ada 10 objek yang berbeda ya Nah di sini
kalau nggak salah ini ada 10 dan Rp60.000 jadi masing-masing ada yang 600 ada jumlahnya
cukup banyak dan bisa untuk dilakukan menggunakan lightning berat seperti sebelumnya
pertama kita pendek melakukan pendefinisian dulu kita Panggil library-library hands-free
digunakan Pak kita siapkan dataset Aa datasheetnya sifat 10 kemudian kita tentukan beberapa
stang yang kita pakai misalnya beside epop seperti tadi jumlah kelas validation split seperti itu
kemudian kita siapkan dataset nya di folder mana kita Panggil yang mana Kalau mau lihat kita
bisa Tampilkan misalnya saya beberapa sampel aja untuk memastikan eh isinya itu benar ya
kemudian eh baru dilakukan complete control sebelumnya kita convert terlebih dahulu menjadi
kategori k-jah karena ini kelasnya bukan dalam bentuk misalnya pesawat atau mobil tapi dak
bentuk kategori ya Misalnya nol menyatakan pesawat satu Nyatakan mobil seperti itu
kemudian dilakukan normalisasi sebelum kita training setelah dilakukan semua ini berarti data
setting udah siap ya kemudian eh Saab ah siapkan arsitektur dari convolution nya ya jadi Disini
yang kita pakai model sekuensial kemudian fungsi aktivasinya relu kemudian disini Klaten dan
saat religi dilakukan dropout jahe setelah terakhir karena dia berupa categorical maka
digunakan fungsi aktivasi soflex Nah setelah kita melakukan pendefinisian arsitektur dari CNN
baru kita melakukan training ya training kemudian kita definisikan parameter-parameternya
optimiser nya kemudian kita menggunakan model Fit ya Dan Terakhir model evaluasi disini
evaluasi digunakan Akurasi ya Hai aku rase ya ya dari sini kita coba lihat hasilnya follower
diperoleh Nah dari sini diperoleh model akurasinya semakin banyak Evoque akurasinya semakin
besar ya dia dia naik terus tapi di ujung-ujungnya naiknya tidak terlalu signifikan ya Tapi tetap
naik nah disini biasanya sejalan dengan Eh lo soundnya jadi akurasinya semakin naik biasanya
flash-nya dia semakin turun itu berarti menandakan bahwa modelnya sudah baik ya di sini
trend itu menurut untuk testingnya juga menurun itu enggak papa itu pertanda bahwa mode
udah sudah cukup baik Hai Nah contoh yang ketiga adalah klasifikasi antara kucing dan anjing
cat and dog ya di sini procedure juga sama dengan yang sebelumnya pertama kita melakukan
penyiapan data sheet download dataset get Ya kalau karena ini saya menggunakan Google
koleb jadi langkah-langkahnya itu saya buat terinci ya jadi dari mulai penyiapan data setnya
download kemudian copy ke Google Drive tujuannya biar saat Google kolektif kita tutup saat
kita panggil kembali dia ah masih ada ya Kemudian yang kedua membuat arsitektur CNN
konvolusi dan fully connected player dan yang ketiga kita siapkan data save data sheet siap
training keempat training baru kita lakukan prediksi kinerja dari training yah Nah di sini
ilustrasinya kita ketikkan data 1000 aku Cing 1000 anjing kemudian kita siapkan 500 kucing dan
500 anjing untuk validasinya ya disini saya menggunakan Google klub pertama yang kita
lakukan kita download dulu ya lebih bisa pakai widget ini sudah download secara otomatis di ini
nih alamatnya nah ini download gambar dari cat sendok tersebut kemudian kita copy ke Google
Drive Ya udah ke Google Drive tujuannya agar tidak hilang saat kita panggil kembali koleksi
sudah ditutup kita panggil kembali kita tinggal ah mengaktifkannya aja jadi tidak download dari
awal lagi Oh ya Kemudian diekstrak datasheetnya x-ride datasheetnya Kemudian Halo Mak
nanti di dalam ah hasil extractnya itu terdapat dua folder ya folder cat filter dan dog filternya di
masing-masing folder tersebut Nanti juga ada isian mengenai gambar kucing dan anjing ya
kemudian nah disini masih dengan apa pengaturan data setnya demos dimasukkan kedalam
fungsi best Deal nih best dear kemudian didalamnya itu kita tulis sebagai ini apa dataset untuk
training sebagai cats terus Dogs terus validasinya juga cash dan gold untuk melihat isi data
sheet kita bisa ambil beberapa saja ya sampel misalnya kita ambil beberapa buah nih A10
misalnya ya Nah di he eh Dek kita bisa gambarkan data yang ada seperti apa Nah total training
set yaitu Ed 1000 kucing 1000 anjing total validation kucingnya 500 dan anjingnya 500 Jadi
kalau ditotal ini ada 3000 data ya Hai nah gambar-gambar ini sebelumnya ini memiliki ukuran
yang berbeda-beda kemudian kita buat satu seragam ukurannya beda-beda sama Ayah Nah
selanjutnya ini dilakukan persiapan untuk ini masih menggambar ya masih menampilkan
gambar sampel dari kucing dan anjing nah ini contohnya kucing dan anjing GTA dengan ukuran
yang berbeda ya tapi nanti akan kita buat seragam Nah selanjutnya setelah dataset sudah kita
ekstrak episode kita download kita ekstrak ke Google Drive kemudian kita lihat sampelnya juga
ini sudah benar maka selanjutnya kita siapkan arsitektur dari CNN Ya dari sini Hai ukuran input
yang itu kita buat seragam jadi 150 dikali 150 Jadi yang tadi ukurannya berbeda Sekarang
semua 150 kali 160 dengan channel hati gaya ajibi nah kemudian di sini kita pakai berapa
konvolusi nih layar konvolusi C ini agak kurang jelas ke ini tiga ya Jadi Yang Pertama konvolusi
Pertama Cerme 16 ya 16 kemudian eh fungsi aktivasinya relu kemudian maksudku link-nya 2-
nya dilanjutkan oleh konvolusi yang kedua dengan speaker mapnya Ndak ini kalo nggak salah
ini ada Iya baik di sini ada tiga convolution layarnya ya kemudian setelah dilakukan
pembentukan arsitektur CNN dilanjutkan dengan persiapan dataset untuk ditraining ya ini
programnya kemudian kita jalankan di sini kita menentukan 15 f oke nah dari yang efek
Pertama eh terlihat bahwa lossnya apa akurasinya masih kecil akurasi training masih dikisaran
0,5 validation yaitu masih 0,6 ini wajar ya masih kecil karena ini baru efek pertama Hai nih Evo
kedua sekitar sudah bisa melihat bahwa ada kenaikan tingkat akurasinya dari yang akurasi
trainingnya 0,5 menjadi 0,6 kemudian ah akurasi validasinya meningkat juga 0,0 69 ya Nah kita
lihat sampai terakhir efek terakhir enggak maaf nah disini Evoque terakhir Oke ini belum
ditampilkan tapi di sini dihasilkan akurasi dari kali apa training lebih besar dibanding akurasi
dari validasi ini sebenarnya kurang baik ya pertanda kurang baik karena ini dinamakan sebagai
overfitting jadi model yaitu bagus saat Hening untuk data trainingnya saja tapi saat testing dia
kurang bagus berarti dia kurang mewakili dari keseluruhan data ya Jadi ini ada kemungkinan
dari kesalahan dari atau ke Adel arsitektur sdnya D6 ini kita coba coba ya jadi jangan takut ini
enggak ini tuh hal yang biasa-biasa saja nanti kita bisa mengganti atau menambahkan atau
mengurangi dari layer-layer konvolusi atau berapa baik size-nya sampai dengan kita
menemukan atau mendapatkan akurasi yang sesuai yang terbaik yo yah jadi disini kalau kita
lihat apa prediksi-prediksi untuk tespeknya diperoleh nih Nah dari training kita lihat trainingnya
itu untuk akurasi dia akan semakin naiknya yang biru ya yang trending nah tapi untuk yang
validasi dia data Raja Sedangkan untuk proses ponselnya Nah di sini juga aku intinya lo sorenya
juga yang diperoleh semakin besar itu menandakan model kurang bagus ya Tapi enggak papa
ini namanya kita belajar jadi disini berarti karena akurasi saat validasi lebih eh saat testing lebih
tinggi dibanding akurasi saat validasinya maka ini dinamakan terjadi overfitting Nah overfitting
ini banyak sekali kita eh cara mengatasi dari overfitting ini bisa aja salah satunya seperti tadi
Drop Out regulation regularisation dengan membuang beberapa neuron yang kurang
berperannya kurang bermakna istilahnya atau juga kita mengganti arsitektur dari seenaknya
tadinya convolution layarnya ada dua kemudian kita pakai Hah tiga misalnya Sehat terus Max
pollingnya atau enggak dilakukan Straight atau padding nya seperti apa atau dari number 6
berbaik size-nya seperti itu Jadi ini ada berbagai cara eh tujuannya untuk membuat model
sebaik mungkin atau akurasinya besar dan Los fungsinya kecil seperti itu Hai Nah jadi ini
kesimpulannya Hai artificial intelegent merupakan sistem yang masih manual sebenarnya dan
masih harus disetting untuk melaksanakan suatu tugas tertentu kemudian datang adanya
machine learning adalah suatu program pembelajaran yang berupa saraf neuron yang berfungsi
untuk memerintah pada komputer jadi istilahnya seperti machine-learning ya mesin atau
kelompok di dalam hal ini komputer-komputer yang belajar dari data agar menjadi cerdas
sehingga dapat dimanfaatkan seperti itu ya fashion Hening Nah kemudian ada lagi diploting tadi
mesin itu dia fokus terhadap satu tugas atau satu permasalahan aja ya Jadi kalau ada beberapa
permasalahan dia mengerjakan 11 nah disini selanjutnya ada yang lebih edvance lagi yang
dinamakan dengan dikloning yaitu diplome itu kemampuan sistem yang disetting dengan baik
demi meningkatkan kinerja pada komputer jadi kalau kita ketemu data yang sangat banyak
perhitungannya itu semakin tahu apa semakin Kompleks maka ini eh kita bisa memanfaatkan
deepening ya tentunya dengan bantuan seperti hardware-nya JPU seperti itu kemudian
deepening dikaitkan dengan activision your netbook yang menggunakan simulasi cara kerja
otak manusia yang terdiri dari beberapa lapisan yang saling terhubung dan komunikasi jadi
sering dinamakan itu bukan artificial neural Network tapi ah Deep newrock ya diperoleh karena
dia hidden layer yaitu lebih dari dua ya jadi di dalam hidden layer itu dia terus belajar untuk
dalam bentuk mengupdate bobot agar akurasinya semakin besar Hai seperti itu nya
implementasi deepening dapat dilakukan pada berbagai permasalahan ya dari klasifikasi
deteksi recognize the natural language processing dan lain sebagainya ya Jadi kalau lihat image
implementasi sekarang nih di perusahaan-perusahaan seperti telekomunikasi kalau kita lihat
seperti Traveloka misalnya ya itu sudah mengolah jutaan data dari mulai orang memesan
memesan jasa untuk pengantaran misalnya itu apa lalu kemudian datanya itu berupa masuk ke
dalam SI drivernya kemudian akan ada solusi memicingkan memasangkan antara kebutuhan
dan kebutuhan itu si pengguna dan Swift drivernya nah seperti itu itu berkaitan Nda tak jadi
sumberdaya sekarang itu bukan minyak bumi lagi minyak goreng ikan sumber daya terbatas ya
sekarang sumberdaya yang terus bertambah itu data semakin banyak Data perhitungannya
juga semakin besar maka kita akan semakin memerlukan di planning ya oleh karena itu banyak
sekali sekarang perusahaan besar seperti Google Facebook Amazon Instagram semuanya sudah
dikaitkan dengan di Pulau nih ya ya Hai Oke ini planning dapat dikatakan sebagai teknik
activision intelejen yang paling baik jika dibandingkan dengan mesin Ning karena dapat
mengakomodir data dan perhitungan yang kompleks berdasarkan efisiensi dan tingkat akurasi
yang dihasilkan ya Jadi ini sebenarnya kesimpulan dari pemaparan mengenai pengenalan
dikloning bab7 sampai sini di sini beri Dewi ya Wah sangat komprehensif sekali ya Bu salah
detail dari awal pembagian mana cara mengambil data setnya kemudian membentuk arsitektur
CNN ya sampai ke validasinya Nah sekarang saya ingin Nose dipakai oleh Bu Jadi kalau bagi
adik-adik atau come in stage TV yang ingin mempelajari defleur Ning sebenarnya enggak usah
takut ya ke untuk membentuk aspire.com ya Jadi ada bro para Neter yang dipakai seperti Evo
beside gaya gue itu angka-angkanya kita pakainya situ coba-coba Ya udah jatuh disudut lahir
meneror Iya betul itu ada teorinya sendiri atau hang coba-coba saja ini pada umumnya sih jadi
kalau kita udah semakin sering melakukan akan kita mengakan mempunyai suatu pola-pola hal
ini bagusnya itu menggunakan parameter yang mana dan besarnya seperti apa seperti itu Jadi
intinya kita n****** Mencoba Ya apalagi di sini sekarang sangat bebas ya ilmu yang diberikan
secara gratis baik itu di Google dari Kegel tadi collects dari YouTube itu semua bisa kita
maksimalkan jadi kita tidak harus wajib mengikuti kursus tertentu disini sudah tersedia ya
seperti itu dan kita nggak perlu coding dari nol Ya gue enggak berlabel nih Sudah ada Jadi
sebenarnya kita lebih bagus tuh kita tahu bagaimana ini dipakainya untuk apa dan kita bisa
menggantikan T atau mengubah sesuai dengan keperluannya ini untuk sesuai dengan
tujuannya untuk apa seperti itu ada bocoran Sedikit lupa kodenya dapat dari mana nih kalau
fajir ini banyak ya Kak Kalau dibuka juga ada di YouTube juga ada di githack juga ada ya seperti
itu banyak Hai sekali kalian loncat di Google mencari misalnya contoh implementasi dikloning
atau V itu udah banyak pilihan intinya berani untuk mencoba itu yang datanya berarti kalian
harus rajin mencari lihat ada ini ya apa namanya Oh ingin rasa ingin tahu challenge penampang
loh ya yang menantang karena kalau kita lihat sendiri ya Sekarang semua hampir semua
perusahaan sangat butuh orang data science ya Jadi yang bisa mengoperasikan yang bisa
membuat model learning seperti itu kini bisa karena sudah di akhir Sunny idiot Terima kasih
sekali Bu Feni buat pembahasannya mengenai di perning sampai ke implementasinya sampai
caranya dari awal hingga akhir juga ya sangat menarik sekali dansa fikir nanti adik-adik
mahasiswa ataupun message Facebook Hai semangatnya untuk mempelajari diperingatkan
mencoba untuk memulai mempelajari di perning Iya jadi Allah kami informasikan bahwa bisa
menyaksikan program literasi eh edisi khusus tim teaching kalau mata kuliah komputasi didata
di hari yang sama yaitu di hari Senin kemudian Allah kami informasikan kembali bahwa nanti di
akhir ada pengumuman pemenang kuis tim teaching Prada dua minggu 5 sampai Minggu 8 oke
baiklah waktu bisa sekian pemaparan materi kita kali ini Terima kasih Bu Feni dana sampai
jumpa di acara berikutnya pastinya dengan topik-topik menarik lainnya dan wassalamu'alaikum
warahmatullahi wabarakatuh Waalaikumsalam warahmatullah [Musik] hai hai

Anda mungkin juga menyukai