Anda di halaman 1dari 49

hai hai

hai hai

Hai assalamualaikum warahmatullahi

wabarakatuh selamat jumpa pemirsa gtv

dan adik-adik mahasiswa Gunadarma di

acara oh literasi edisi khusus

perkuliahan tim teaching mata kuliah

komputasi big data sebelum kita membahas

topik Hari ini saya ingin

menginformasikan kembali bahwa bagi

perwira yang ingin menyaksikan acara

diuji TV dapat melalui TV digital di

channel 32 UHF ataupun di TV analog di

channel 54 whf atau dapat juga melalui

restreaming di alamat triple double you

dot TV gunadarma.ac.id atau triple

double you dot CCTV ad.co.id atau dengan

mudah mendownload aplikasi you jdhdhd

Store atau Play Store Dan dapat juga

menyaksikan tayangan ulang melalui

channel YouTube wujud TV official dan

jangan lupa pastinya jelek dan subscribe

Pada kesempatan kali ini kita akan

membahas mengenai

nih Adib learning dan pada hari ini les

sudah bersama narasumber yang saya bisa

katakan ini salah satu pakar dari Deep

learning itu bu dokter Feni Andriani

namun alaikum Ibu alaikum salam

warahmatullah wabarakatuh Gimana


kabarnya Bu baik alhamdulillah baik

nafasnya sangat menarik ya tengah kita

kali ini menyerang pastinya ah pemirsa

juga penasaran nih sebenarnya dilarang

itu seperti apa apa bedanya sediver nih

sama machine-learning Mari kita sepsi

kantono parah materi yang akan

disampaikan oleh Freddy silakan ibu baik

Bismillahirohmanirohim assalamu'alaikum

warahmatullahi wabarokatuh salam jumpa

kembali adik-adik CCTV Oh mahasiswa

Gunadarma pada program literasi

komputasi big data pada kali ini kita

akan mempelajari mengenai di planning

Hai baik nah Sebelum kita mulai kita

akan review sedikit ya mengenai materi

yang sudah pernah kita pelajari

sebelumnya diawali dengan pengenalan

dari big-data overview jadi big data

berkolaborasi dengan keatif facial

intelejen menjadi tren teknologi yang

sangat pesat saat ini nah jika dipadukan

antara big data dan eaie maka akan

menjadi satu data pintar yang didalamnya

terdapat eh menjadi data cerdas yang

didalamnya kita bisa ambil Insight dari

data tersebut kemudian kita ambil

manfaat dari dataset tersebut

selanjutnya kita juga sudah mempelajari


mengenai machine-learning nadi

machine-learning itu machine learning a

dari sini Kita sudah mempelajari

bagaimana mesin untuk belajar dari data

untuk mengambil pengalaman dari data

agar bisa meneral isir untuk membuat

keputusan

didata yang baru Nah pada kali ini Pada

kesempatan kali ini kita akan

mempelajari mengenai di planning yang

merupakan Advance dari machine-learning

dengan menggunakan jaringan syaraf

tiruan ya sebagai trainingnya sehingga

akurasi dan efisiensi yang dihasilkan

akan semakin lebih baik dibanding mesin

lenih baik a kita mulai dengan Deep

introduction to the planning Pada

kesempatan ini kita membagi rata tiga

sesi segmen pertama yaitu mengenai

pengenalan learning yang kedua mengenai

convolutional neural Network dan yang

ketiga beberapa contoh implementasi dari

Deep learning Oke jadi yang pertama

dalam pengenalan dikloning ini akan

dijelaskan diawali dengan perkembangan

di planning kaitan di planning dengan a

Aa artificial intelegent dan mesin

learning dan terakhir jaringan aktivis

sel neural Network

Hai di kali dilihat dari perkembangan


sejarah dari kecerdasan buatan kita bisa

melihat dari berbagai segi ya bisa

dilihat berdasarkan perkembangan dari

revolusi industri jadi revolusi industri

1 2 3 dan 4 nah bisa juga bisa kita

lihat berdasarkan perkembangan dari

kecerdasan buatan itu sendiri jadi

dimulai pada tahun 1842 ide Agusta

menemukan bahasa pemrograman dilanjutkan

oleh Alan turing yang menemukan metode

Hai perilaku cerdas nah dari situ eh

terus berlanjut sampai tahun 1956 1975

sampai dengan sekarang Nah dari sini

kita sudah bisa melihat ya Eh

perkembangan ia ini disini tidak selalu

eh seks tidak selalu maju ya atau tidak

selalu booming Nah di sini kita lihat

bisa dibagi menjadi tiga fase booming

nya arek dari tahun 1950-1960 kita

katakan sebagai booming pertama East

kemudian 1980 sampai 90 itu booming Eha

yang kedua dan 2010 sampai sekarang

buminya ea yang ketiga Nah di sini eh

perkembangan di planning ini kita mulai

Edi bisa dikatakan di

Lay dari tahun 2006 atau 2010 sampai

dengan sekarang karena disini sudah

banyak Framework tools yang bisa

mendukung kinerja dari di planning


misalnya sebagai contoh sekarang udah

ada komputasi paralel atau Gom apa GPU

ya sehingga memudahkan untuk membantu

perhitungan matematik yang kompleks yah

Nah di sini kalau kita lihat sebelumnya

beberapa perusahaan yang besar seperti

Google Facebook Amazon itu sudah berani

untuk menginvestasikan pada di planning

sebagai contoh misalnya pada tahun 2006

Google berani menginvestasikan kepada

Dikmen yaitu perusahaan yang bergerak

pada di planning kemudian dilanjutkan

pada tahun 2016 Facebook Amazon sudah

bisa Sudah berani menginvestigasi untuk

menginvestasikan pada di Pulau nih dan

terakhir eh eh

Hai smartphone Xiaomi Apple sudah bisa

menyusul untuk berinvestasi dalam

kemajuan teknologi di planet nih ya Dari

sini kita sudah bisa melihat ya

perkembangan dari di planning yang

semakin hari semakin dibutuhkan semakin

pesat nah Pada kesempatan kali ini kita

akan memahami sebenarnya apa itu Deep

learning Hubungannya apa dengan

machine-learning danea kemudian

jaringannya Seperti apa begitu baik

dimulai dari di planning al-jufri link

itu kalau dilihat dari Gambar ini

merupakan subset dari machine-learning


dan mesen ending kita tahu sendiri the

merupakan subset dari aktivisual

intelijen ya jadi dari artificial

intelegent itu suatu sistem yang

berusaha dapat meniru kecerdasan manusia

lebih spesifik lagi machine learning

yaitu salah satu teknik ea yang

berkaitan dengan pembelajaran data yang

dirancang dengan menggunakan algoritma

jadi sesuai dengan namanya machine

learning yaitu mesin yang belajar dari

data agar pintar seperti itu eh

pembahasan apa singkatnya ya kemudian di

perning salah satu cabang

machine-learning yang menggunakan

artificial neural Network atau jaringan

syaraf tiruan untuk menyelesaikan

permasalahan yang diusulkan pada data

yang tidak terstruktur karena kan khas

super sebagaimana kita tahu sebelumnya

ya kalau data zaman dulu itu sudah

terstruktur dalam bentuk tabel atau

saudara pilih yah Nah sekarang kan kita

lihat teknologi sekarang data itu enggak

Hanya berupa tabel seperti itu bisa aja

bisa berupa suara bisa berupa gambar nah

seperti itu itu

Hai di planning telah menggunakan

teknologi di planning ya Nah karena


disini di planning ada kaitannya dengan

aktivis elne Club pada kali ini kita

akan membahas singkat mengenai aktivis

sosial Network atau sering dikatakan

jaringan syaraf tiruan yaitu jaringan

saraf yang biasanya menggunakan jaringan

yang hanya memiliki satu atau dua

lapisan tersembunyi atau hidden layer ya

jika lapisan jaringan sarafnya atau

hidden layer lebih dari dua layer maka

itu dinamakan di planning dia arsitektur

jaringan ini kurang kompleks dan

membutuhkan lebih banyak informasi

tentang data input sehingga dapat

menentukan algoritma mana yang dapat

digunakan sedangkan pada zat algoritma

jaringan syaraf dikloning tidak

mengeluarkan memerlukan informasi apapun

terhadap data yang akan mempelajarinya

Hai algoritmanya akan secara mandiri

melakukan penyetelan atau cunning dan

pemilihan model yang paling optimal nah

disitu udah bisa kelihatan ya tidak

memerlukan efek yang banyak dalam

mengetahui informasi dari data nanti

dari algoritma yang sendiri yang akan

melakukan tuning sendiri contohnya

banyak ya seperti deteksi objek

pengenalan suara NLP dan lain Ha

sebagainya nah disini kita bisa lihat ya


disini lapisan lainnya rdip learning nah

tapi sana yardip learning ini kita bisa

bedakan antara simpel neural Network dan

di planning neural Network disini

terdiri dari tiga bagian input layer

hidden layer output layer nah dikatakan

hidden layer lapisan tersembunyi karena

didalamnya bisa saja berisi dari ratusan

layer ya jadi makanya dikatakan hidup

biar itu untuk di perning jadi Ih

jaringan ini terdiri mengikuti syarat

kerja otak manusia yang dimulai dari

antar neuron itu saling terhubung

dihubungkan dengan akson sehingga mereka

saling berkomunikasi terkait saling

terkait dan saling berkomunikasi nah

dari situ Ane itu meniru cara kerja dari

sistem otak manusia Nah dari sini

kemudian antar dari satu neuron ke

neuron yang lain ada harus melalui suatu

fungsi aktivasi Nah kita bisa dilihat

sebelah kanannya fungsi aktivasi Nah

jadi di fungsi aktivasi itu dari input

misalnya x0x satu dan x2 maka untuk

menuju ke neuron selanjutnya deh harus

dilakukan dulu pengupdetan pengupdetan

bobot ya bisa dikatakan dikalikan dengan

Hai bobot wek misalnya notasinya

Kemudian ditambahkan dengan Bayas


kemudian kita sejumlah kan dan

dimasukkan kepada fungsi aktivasi disini

fungsi aktivasi ini sebenernya ini

tujuannya ada fungsi aktivasi untuk

mengakomodir fungsi linear linearitas

dari data karena dalam dunia nyata ya

enggak selalu kita menemukan semua

permasalahan itu bentuknya linear malah

lebih banyak nonlinear misalnya nih

sebagai contoh kita naik taksi LED aksi

kalau Argo semakin jauh harganya semakin

naik Nah itu berarti bersifat linier

tapi kan nggak selamanya seperti itu

misalnya kasus yang kedua kita mau

membeli barang nah membeli barang enggak

hanya berdasarkan keperluan aja pasti di

situ ada faktor dari

apa fungsinya dari bentuknya dari

kebutuhannya jadi beberapa faktor yang

lain banyak yang mempengaruhi keputusan

membeli barang yaitu termasuk nonlinear

nah disini informasi dari informasi dari

neuron input ini Kemudian Mas dimasukkan

ke fungsi aktivasi untuk menghasilkan

klasifikasi Nah di sini ada beberapa

fungsi aktivasi misalnya ada sigmoid ada

Kanjeng tangen hiperbolik Nah itu

biasanya digunakan untuk klasifikasi

antara dua misalnya dia termasuk apel

atau bukan seperti itu ya Banery


classification nah Selain itu misalnya

menentukan dia termasuk dalam kategori

mana Nah itu biasanya digunakan soft Max

fungsi aktivasi fungsi aktivasinya

softmax dan kalau prediksi biasanya

menggunakan real

Hai nah jadi kita juga harus tahu ya

Menggunakan fungsi aktivasi yang tepat

untuk permasalahan eh apa gitu jadi

untuk klasifikasi pakai apa untuk

prediksi pakai apa seperti itu ya

hai hai

Hai nah disini struktur pemodelan

jaringan perbedaan antara mesin learning

dan dating dari sini kita sudah bisa

melihat ya perbedaan yang cukup mencolok

antara machine-learning dan di planning

nah Disini di perning berbeda dari

teknik mesin learning yang tradisional

karena di planning secara otomatis

melakukan representasi dari data seperti

gambar video atau teks tanpa

memperkenalkan aturan kode atau

pengetahuan domain manusia sedangkan di

machine-learning itu kita harus

melakukan beberapa tahap dulu sebelum

dilakukan training jadi itu dikatakan

feature Extraction biasanya disini

dimasukkan ilmu mengenai computer Vision


misalnya kalau inputnya berupa Citra ya

dari situ setelah feature Extraction

dirapihkan lah datanya baru klasifikasi

Hai dan selanjutnya output nah ini

sebenarnya kalau dilihat dari sini nih

ada empat langkah yang harus di siapkan

oleh machine-learning Nah di sini kalau

di planning yang penting inputnya itu

udah-udah seragam gitu Istilahnya ya

jadi misalnya ukurannya udah sama udah

tinggal nanti dimasukkan ke algoritmanya

yang akan mempelajari sendiri kira-kira

eh modelnya Seperti apa nah misalnya

kalau modelnya yang pertama itu masih

kurang dia akan pakai or goritma lagi

untuk mempelajari kesalahan sebelumnya

jadi ada salah satu contoh namanya itu

backpropagation ya disitu akan

mengupdate lagi white nya agar mudah

diperoleh error yang semakin kecil atau

akurasi yang semakin baik ya ini

sebenernya gambaran dari eh dipeler eh

di planning yang menggunakan

jaringan saraf manusia jadi

disimulasikan seperti cara kerja

Bagaimana otak bekerja Jadi intinya eh

dari satu neuron ke neuron yang lain itu

saling terhubung saling memberikan umpan

balik Jadi kalau misalnya masih ada

kesalahan dia belajar lagi gitu sampai


dengan memperoleh error yang diharapkan

ya Nah di sini eh ada beberapa perbedaan

atau kelebihan dan kekurangan antara

machine-learning dan deepening nih yang

pertama kalah kita lihat berdasarkan

data yang pertama algoritma di planning

tidak mampu mengolah data yang jumlah

kecil secara maksimal Jadi maksudnya

kurang maksimal bisa tapi kurang

maksimal tapi kalau masih mending bisa

ya jadi karena jadi data-data

ada dikloning itu membutuhkan data yang

sangat besar semakin banyak Data maka

dia akan semakin banyak belajar dan

akurasinya semakin Baguslah ya jadi

disini data itu lebih untuk dikloning

lebih khusus dia harus menggunakan data

yang sangat banyak kalau

machine-learning sedikit juga bisa ya

Nah kemudian untuk hardware naik di sini

hardware itu untuk defending deh

membutuhkan JPU jadi untuk

komputer-komputer yang tidak kompatibel

atau tidak tersedia ejb uh maka dia akan

mengalami kelambatan dalam memproses

data di planning baik itu karena data

banyak ataupun karena perhitungannya

yang sangat kompleks ya jadi Disini

deeplearning4j
Hai Aa membutuhkan sekali GPU tapi

sekarang ada solusi untuk yang baik

untuk yang belum memiliki JPU misalnya

Nah di sini eh ada soto di KL apa

melalui Google kongres atau segel nah di

Google Club itu kita bisa memanfaatkan

GPU atau cloud computing yang ada di

Google ya Nah di situ kalian hanya cuman

look membuat akun aja kemudian kalian

mengaktifkan GPU nah dari situ tanpa

membebani laptop kita komputer kita maka

GPU dari Google kolev yang

mengerjakannya ya Nah di situ itu suatu

kemudahannya jadi tidak ada alasan untuk

eh kita untuk menghindari ahti

belajar di planning karena komputernya

tidak kompetibel Nah itu tidak bisa

tidak tidak menjadi alasan Karena

sekarang banyak sekali bantuan ya

Istilahnya ya bisa melalui Google kolep

atau Kegel ya jika gagal ini sebenernya

ini berisi tentang eh seperti kompetisi

ya kompetensi Jadi biasanya perusahaan

memberikan suatu permasalahan misalnya

Bagaimana cara memprediksi harga saham

misalnya dia akan memasukkan Kegel

kemudian dia akan memilih jawaban mana

yang paling akurat gitu nanti biasanya

disitu ada beberapa Hadiah atau bisa

saja langsung di tarik menjadi


pegawainya ya Nah itu kayak gagal disini

selanjutnya kita bisa lihat berdasarkan

fitur engineering nya nah meselan nih

pak bertugas untuk

identifikasi fitur yang diterapkan dan

membuat kode secara manual sesuai domain

dan tipe data sedangkan kalau di

planning algoritmanya sendiri yang

berusaha mempelajari fitur-fitur tingkat

tinggi dari data kah jadi ini

machine-learning proses-proses yang

secara manual at Eden feature Extraction

itu ya kemudian yang ke empat pendekatan

penyelesaian masalah nah di algoritma

machine-learning pemecahan masalahnya

dibagi menjadi beberapa bagian

permasalahan karena di machine-learning

hanya bisa mengerjakan satu permasalahan

ya Nah kemudian diselesaikan secara

terpisah kemudian penyelesainnya

digabungkan kembali Nah itu sebenarnya

termasuk apa ya kurang efektif atau

kurang efisien ya Nah untuk di perning

sedangkan dipilih Mampu menyelesaikan

masalah secara

keseluruhan nah disini tampak kelebihan

dari dikloning ya dan terakhir kita bisa

melihat berdasarkan waktu eksekusi nah

algoritma machine-learning bisa


melakukan eksekusi dari hanya satu menit

sampai hitungan beberapa jam sedangkan

di planning membutuhkan waktu yang jauh

lebih lama dari itu ya karena disini

mempertimbangkan data yang cukup besar

dan perhitungan yang kompleks yah

Hai baik dan ini adalah di planning

salah satu contoh dari model aksar si

tekstur yang sederhana ini salah satu

contohnya adalah convolutional neural

Network ya di sini kalau layernya lebih

dari dua atau itu sering dikatakan Deep

convolutional neural Network nah

sebenarnya jaringan convolutional neural

Network sama dengan jaringan n pada

dikloning biasa ya hanya saja Dia

memiliki ciri khas memiliki layer yang

dinamakan layak konvolusi nya di dalam

layar konvolusi ini disini terjadi

beberapa operasi seperti feature

Extraction a match pooling dan beberapa

hal yang dilakukan pada layer control

nih Nah di Selain itu dia juga ada voli

dilanjutkan dengan fully connected layar

nah pembahasan mengenai convolutional

neural Network akan dibahas pada segmen

2 berikutnya bye sama Vira sekalian

penjelasannya dan serasa gelas yify

cuman yang menarik bagi saya itu kan Oh

di perning itu adalah metode yang lebih


canggih bisa dikatakan seperti ya Bu ya

Iya lebih canggih daripada Messenger

running tahun napis saya lihat tadi

banyak banget batasannya ya Iya resep

waktunya juga lebih lama arus

hardware-nya juga lebih lebih terasa

manfaatnya kalau menggunakan hardware

apa JPU seperti itu Ayah tapi sekarang

dipilihnya sedang buming boomingnya

bergaya tuh iya betul banyak banget

dipakai Google sudah memakai lebih

lemaknya berarti kan emang sebenarnya di

ferning itu sangat bagus sekali ya Iya

bermanfaat ya sesak

untuk kehidupan kita ya sekarang yang

sangat kompleks itu sangat bermanfaat

gigi Baik pemirsa CityVille sudah

jelaskannya perbedaan antara mesin

rolling sama Div learning dan diwarnai

itu menggunakan yang tadi yang buffet

dikatakan bahwa activision Network dan

nanti kita akan membahas mengenai

convolutional neural Network tapi

setelah jeda informasi berikut ini ya

[Musik]

jumpa lagi pemisah ijphy serta adik-adik

mahasiswa di program acara literasi

edisi khusus tim teaching mata kuliah

komputasi big data dan pada kali ini


kita membahas topik yang sedang booming

keep learning tadi disampaikan bahwa eh

salah satu model dari Deep learning yang

sering digunakan adalah convolutional

neural Network dan Mari kita sama-sama

dengarkan pemaparan materi mengenai

convolutional neural Network Baik terima

kasih kita lanjutkan lagi ya mengenai

pembahasan pengenalan di planning Jadi

yang pertama kita sudah mempelajari

mengenai perkembangan dikloning sampai

definisi sampai dengan arsitektur dari

AD activision your Network dari Disney

untuk selanjutnya salah satu contoh

metode yang yang sering digunakan di

planning yaitu convolutional neural

Network disini akan kita bahas mengenai

arsitektur algoritma dan eh model

evaluasinya Ya baik a sebelum kita masuk

ke

harus bertanya dulu ya untuk mengenai

mengenal sesuatu Apa itu CNN nah disini

CNN merupakan salah satu metode Deep

learning yang biasa digunakan untuk

mengolah gambar atau video ya di sini

red sekali kaitanya dengan computer

Vision secara garis besar convolutional

neural Network tidak jauh beda dengan

neural Network biasa ya di sini karena

ada beberapa layer dan terdiri dan


setiap neuron terdiri dari pengupdetan

white Bayes dan fungsi aktivasi ya di

sini ciri khas CNN ini convolutional

neural Network ini memiliki layer

konvolusional kemudian dilanjutkan

dengan layer fully connected nya ini

ilustrasi dari arsitektur convolutional

neural Network ya jadi disini dibagi

menjadi dua bagian besar ya Yang pertama

adalah fitur ekstra

John layer yang kedua adalah fully

connected layer nah di dalam feature

Extraction player disini ini adalah

proses feature learning Ya di sini ada

proses konvolusi ada selanjutnya di

dalam toples tersebut kita lakukan

beberapa langkah agar sesuai dengan apa

yang kita harapkan misalnya gambarnya

kita lakukan Straight atau padding

kemudian masuk ke player kuliner paling

disitu ada beberapa jenis ada Max

pooling ada Everett fully nah disini

selanjutnya dari sini dilanjutkan pada

fully connected layer yang sering

dikatakan dengan bagian atau fase

klasifikasi nah hasil dari feature

learning itu berupa fitur map Nanti

sebelum masuk ke fully connected dia

akan
aku kan frighten atau dibuat menjadi

Suatu vektor yang kemudian saling

terhubung dan saat awful konekted ini

dan akhirnya masuk ke eh fungsi aktivasi

masuk ke layer output ya di sini berikut

ada penjelasannya untuk feature

Extraction layer proses yang terjadi

pada bagian ini adalah melakukan

encoding dari sebuah image menjadi fitur

yang berupa angka-angka yang

merepresentasikan image tersebut ya kalo

dari Gambar angka-angka ini merupakan

piksel-piksel dari gambar ya semakin

banyak pixel akan semakin baik karena

dia merepresentasikan informasi dari

gambar tersebut ya Eh feature Extraction

layer ini terdiri dari dua bagian ya

convolution layer dan

mulai er namun ada beberapa ever atau

peneliti yang lain yang tidak

menggunakan pooling bayar Nah di sini

ada simulasinya bagaimana konvolusional

layer bekerja jadi konvolusional er

terdiri dari neuron yang tersusun

sedemikian rupa sehingga membentuk suatu

filter dengan panjang dan lebarnya itu

dari Vixal nya ya jadi

langkah-langkahnya itu pertama kita

harus menentukan ukuran dari filternya

atau kernelnya ya Kemudian dari situ


kita harus eh menentukan juga Apakah

kita lakukan seratnya berapa

pergeserannya atau padding perlu

dilakukan Fading atau enggak ini

disesuaikan dengan output yang output

tujuan kita Nah kita bisa lihat dari

sini misalnya ada Citra ukuran lima kali

lima ya dari si

lo dilakukan Straight yaitu satu

kemudian V dingin ditambah satu ini jadi

sekitarnya kita tambahkan nol ya dengan

tujuan yang diharapkan menghasilkan

output nya itu berukuran tiga kali tiga

seperti itu ya jadi pergeseran itu

dinamakan Straight dah penambahan pixel

disekitarnya itu dinamakan Fading enggak

Straight adalah parameter yang

menentukan beberapa jumlah pergeseran

filter jika anak nilai Straight nya satu

maka convolution filternya akan bergeser

sebanyak satu piksel-piksel secara

horizontal selalu turunnya vertikal

semakin kecil Straight maka akan semakin

Detail informasi yang kita dapatkan dari

sebuah input namun membutuhkan komputasi

yang lebih jika dibandingkan dengan

streat yang besar kalau seratnya

kalau besar ledekan ada yang lengkap ya

loncat Berarti ada informasi yang hilang


di-enter itu jadi sih lebih baik kecil

tapi yang nggak terlalu ah kecil karena

akan memperbesar perhitungannya yaitu

saling berpengaruh kemudian di perlu

diperhatikan bahwa dengan menggunakan

Straight yang kecil kita tidak selalu

akan mendapatkan performa yang bagus itu

tadi ya jadi perhitungannya lebih banyak

kemudian tadi pending pending itu dengan

penambahan sekitarnya itu speakernya nol

ya seringnya digunakan nol tapi nggak

selalu no bisa aja satu Fading atau Zero

padding adalah parameter menentukan

jumlah pixel berisi nilai nol itu Zero

trading yang akan ditambahkan di setiap

sisi dari input dengan tujuan Untuk

memanipulasi dimensi output dari

convolution layar yahfi cermatnya

Oh ya ini tujuannya Untuk memanipulasi

dimensi output jadi kalau outputnya

ingin ukuran tiga kali tiga Straight nya

satu maka mungkin inputnya masih kurang

terlalu kecil maka ditambahkan freezing

untuk sekitarnya gitu ya tujuannya

kemudian dengan menggunakan padding kita

akan mengukur dimensi output agar tetap

sama seperti dimensi input atau

setidaknya tidak berkurang secara

drastis sehingga kita bisa menggunakan

convolution layer yang lebih dalam


sehingga lebih banyak fitur yang

berhasil di ekstrak tidak banyak

informasi yang hilang ya Jadi cukup

mewakili lahir kemudian meningkatkan

performa model karena convolution layer

akan fokus pada informasi yang

sebenarnya yaitu yang berada diantara

Zero padding tersebut

Hai Nah selanjutnya setelah dilakukan

operasi konvolusi tadi kita mau sebelum

masuk ke nyaron selanjutnya dimasukkan

kedalam fungsi aktivasi ya fungsi

aktivasi berada pada tahap sebelum

melakukan pooling layer ya Jadi sebelum

pooling itu jadi setelah melakukan

Strike Keding selalu dimasukkan ke

fungsi aktivasi baru ke full link layer

begitu ya gambaran Iya nah dan setelah

melakukan proses konvolusi ia cooling

itu jadi pulih setelah konvolusi

kemudian fungsi aktivasi baruku link

layer pada tahap ini nilai hasil

konvolusi dikenakan fungsi aktivasi

yaitu activation dinamakan activation ya

terdapat beberapa fungsi aktivasi yang

digunakan nah seperti tadi yang sudah

saya jelaskan sebelumnya

Eh ada beberapa fungsi aktivasi yang

sering digunakan Jadi yang pertama itu


sigmoid kedua tangan hyperbolic yang

ketiga soft Max keempat relu Sebenarnya

ada satu lagi mikir elo itu yang terbaru

ya cuman ini yang umumnya sih sigmoid

atau relu ya Nah untuk mengetahui

klasifikasi kan dua mengklasifikasikan 2

pilihan Ya seperti ia atau tidak atau

dia termasuk pir atau apel ya seperti

itu itu biasanya menggunakan fungsi

aktivasi sigmoid atau tangan hangat

hyperbolic ya Nah kemudian kalau berupa

kategori dia termasuk dalam jadi Sudah

ada kategorinya tinggal dia memasuki

dalam kategori yang mana itu biasa

menggunakan

g-shock Max dan kalau prediksi biasanya

menggunakan relu yah Nah di sini

misalnya untuk sigmoid kalau nilai yang

dihasilkan lebih kecil dari misalnya

lebih kecil dari nol maka dia termasuk

klasifikasi misalnya nol itu tergantung

nol itu diartikan apa ya Kalau lebih

diantara 0-1 maka dia termasuk ke

klasifikasi yang pertama seperti itu ya

Jadi ini intinya fungsi aktivasi itu

mengakomodir adanya sifat nonlinearitas

dari data ya agar kita bisa menentukan

secara pasti dia termasuk kelompok yang

mana seperti itu selanjutnya fungsi

aktivasi pada relu nilai output dari


neuron bisa dinyatakan sebagai nol jika

inputnya negatif jika nilai investasi

fungsi aktivasi Adobe

aktif maka output dari orangnya adalah

nilai input aktivasi tersendiri itu

relief ya jadi enggak hanya 01 ya dek

karena Nadia biasanya digunakan saat

prediksi nanti kita masuk bisa lihat

dari contoh Eh pada segmen 3 yah

implementasi Nah sekarang setelah fungsi

aktivasi kemudian masuk ke dalam polling

layer paling layar biasanya berada

setelah convolution layar ya ditemukan

collection lahir tentu sudah masuk dalam

fungsi aktivasi ya pada prinsipnya

cooling lahir terdiri dari sebuah filter

dengan ukuran dan stretch tertentu yang

bergeser pada seluruh air area fitur map

polling Andi umumnya digunakan ada dua

ya biasanya Adam spooling ada everace

pooling Max berarti kita pilih mana yang

terbesar kalau Everest cooling kita

lakukan rata-rata ya

Hai teri Ahok kelompok yang dipilih

tujuan kuliner itu apa untuk mengurangi

dimensi cermat sehingga mempercepat

komputasi karena parameter yang harus

diupdate semakin sedikit dan mengatasi

overfitting ya jadi pooling layer itu


sudah jelas ya Kalau lihat dari gambar

dari dimensi ukurannya empat kali empat

nanti berubah menjadi dua kali dua anak

ini Udah tentu sudah tentu akan

mengurangi eh kinerja atau mempercepat

komputasi karena parameter yang

digunakan juga lebih sedikit dibanding

untuk ukuran matriksnya empat kali empat

Nah kalau dilaknat contoh dari gambar

misalnya dilakukan Max pooling ya kita

lihat Oke pixel yang dua kali dua di

atas kiri Kita dicari mana yang maksimum

itu adalah 6 sebelah kanannya itu

delapan kiri bawah

ketiga dan kanan bawah empat itu kalau

kita menggunakan Max spooling tapi kalau

average berarti ah kalian buat

rata-ratanya ya warna merah rata-ratanya

berapa misalnya Satu Tambah Satu tambah

lima tambah enam dibagi empat yah 13

bagi empat seperti itu itu yang mengisi

kolom yang merah Nah setelah setelah

selesai melakukan didalamnya 10 tadi

dalam polling layar kemudian dilanjutkan

pada layer fully connected nah fitur map

yang dihasilkan dari feature Extraction

tadi yaitu melalui convolution layer

full link layer masih berbentuk

multidimensional array sehingga harus

melakukan flatten jadi creamery save


viterna menjadi sebuah vektor agar bisa

digunakan sebagai input

revoltech konektor player ya Misalnya

tadi ukurannya ah berapa tadi misalnya

tiga dua kali 32 atau ah nanti akan

dibuat menjadi satu Factor ya jadi satu

baris ya atau satu kolom nah disini agar

bisa eh digunakan sebagai input fully

connected layer nah lapisan fully

connected itu adalah lapisan dimana

semuanya Ron aktivitasnya dari aktivitas

semuanya Ran itu dari lapisan sebelumnya

dan saling terhubung ya ini sebenarnya

sama dengan jaringan syaraf tiruan biasa

atau artificial neural Network biasa

jadi semua saling terhubung dan saling

memberikan informasi ya setiap aktivitas

dari lapisan sebelumnya perlu diubah

menjadi data satu dimensi sebelum dapat

dihubungkan ke semuanya Ron di lapisan

fully connected

Oh ya lapisan fully connected ini

bertujuan untuk mengolah data sehingga

bisa diklasifikasikan perbedaan yang

mencolok antara fully connected dan

layer dan lapis apa convolution layer

adalah neuron Di lapisan convolution nya

convolution layer terhubung hanya ke

daerah tertentu pada input jadi tidak


semua jenis diambil secara lokal lokal

aja tadi yang kita harus menentukan

Kernel size atau filternya itu itu

berarti yang kita ambil dari inputnya

itu tidak keseluruhan tapi diambil

secara lokal aja ya nah tapi kalau fully

connected dia logo seluruhnya orang itu

saling terhubung keseluruhan ya Jadi

kalau kita menentukan ukuran Kernel =

Hai ukuran input maka itu hoah

convolution layer = a fully connected

Raya itu ya Nah di sini ada tahapan yang

dinamakan dengan Drop That regulates

regularisation regularisation yah

drop-out drop-out berarti membuang ya

dropout adalah teknik regularisasi

jaringan syaraf dimana beberapa neuron

akan dipilih secara acak dan tidak

dipakai selama pelatihan Nah di sini ada

beberapa alasan ya kayak ada yang

dibuang karena apa tidak berperan secara

signifikan gitu ya ada yang malah

membuat komputasi Lebih banyak lebih

berat gitu jadi perannya itu kurang

kurang signifikan sehingga bisa

dilakukan Drop Out

yo yah jadi jaringannya itu apa Nyonya

itu dibuang Akan diberhentikan sementara

dan bobot baru juga tidak diterapkan

pada neuron tersebut saat melakukan


training ya drop-out merupakan proses

mencegah terjadinya overheating dan juga

mempercepat proses learning

Oh ya mempercepat proses learning tentu

karena nyoron yang dipakai tidak

sebanyak yang seharusnya tadi ya dibuang

yang tidak perlu sehingga mempercepat

proses learning nya Drop Out mengacu

kepada menghilangkan neuron yang berupa

hidden maupun layer yang visible didalam

jaringan

Oh ya di sini dropout ini tujuannya

mencegah terjadi overfitting yang

overfitting pernah dibahas sebelumnya ya

overfitting itu Jadi jika eh Error saat

pelatihannya itu kecil atau akurasinya

saat pelatihannya bagus tapi saat

testingnya akurasinya kurang bagus ya

atau error ya lebih besar Nah itu

dikatakan overfitting Nah dengan

melakukan dropout ini bisa membantu

untuk mencegah terjadinya overfitting

ini ilustrasinya ya contoh implementasi

dropout regulated recession nah ini yang

sebelah kiri Ini aja jaringan syaraf

biasa Kemudian karena ini ada nyoron

yang tidak berperan secara signifikan

maka dibuang dan tidak diikutkan dalam

training maka eh eh
Hai Apa jaringan syaraf setelah

dilakukan road akan menjadi seperti B

ini ya Dari sini sudah terlihat otomatis

dia akan mempercepat proses training

karena Enggak semua eh neuron yang ada

kita pakai nah di Tahap terakhir pada

convolutional neural Network kita harus

mengetahui seberapa bagus model atau

arsitektur yang kita bentuk dengan cara

menghitung ah tingkat eh apa Model atau

model evaluasinya ya atau sering

dinamakan confusion Matrix ini ada tiga

jenis Confession matrik yang umumnya

dipakai pada CNN Jadi yang pertama

dinamakan dengan akurasi kedua presisi

ketiga recol ya akurasi ini merupakan

tingkat kedekatan antara nilai prediksi

dengan nilai aktual

hai hai

yo yah Eh kebayang ya Aa artinya ya jadi

seberapa dekat antara nilai aktual dan

nilai prediksi jadi semakin tinggi akan

semakin baik kedua presisi tingkat

ketepatan antara informasi yang diminta

oleh pengguna dengan jawaban yang

diberikan oleh sistem ini juga perlu ya

karena kita juga perlu tahu apa tepat

tidaknya reda dari Yang permintaan

pengguna dengan yang hasil diperoleh

rasa sistemnya ketiga recol tingkat


keberhasilan sistem Dalam menemukan

kembali sebuah informasi Nah dari sini

bisa dibuat confusion Matrix nya seperti

di sebelah kanan atas ini Hahaha Kalau

yang atas ini mencerminkan nilai-nilai

Hai sebenarnya yang sebelah kiri nih

yang baris ini nilai prediksi yah jadi

disini kalau nilai sebenarnya itu truk

dan nilai prediksinya benar dinamakan

dengan truk positif atau disingkat

dengan TP ya kemudian Jika nilai

sebenarnya itu Fals dan eh nilai

prediksinya itu true maka disebut

disebut dengan fositif kemudian nilai

sebenarnya through nilai prediksinya

faucet ufos negatif dan nilai sebenarnya

fos dan prediksinya Fauzi tutur negatif

ya Dari sini bisa diambil Suatu formula

untuk perhitungan akurasi presisi dan

rekor akurasi itu TP tambah TN tro

positif ditambah turun negatif per

Khan presesi ini dan real ini nih

contohnya ya untuk memahami Bagaimana

menghitung

the Confession matriksnya misalnya kita

ingin mengukur kinerja dari suatu mesin

pemisah buah apel dan pir untuk

mengujinya kita akan memasukkan 100 buah

apel dan 900 buah lain nah hasil mesin


ternyata memisahkan 110 yang dideteksi

sebagai apel nah ternyata setelah dicek

kembali 90 yang merupakan benar-benar

apa sedangkan 20 lainnya merupakan buah

lainnya dari sini kita bisa membuat

Confession matriknya dari data yang

didapat a benar dan prediksinya benar

berarti 90 ya Nah terus dari data yang

didapat yaitu negatif atau fos dan nilai

yang diprediksinya benar berarti 20

Karena tadi kan 110 yang dibilang itu

apel tapi ternyata 90 yang apel

yaitu batik 20 ya Nah terus untuk nilai

sebenarnya benar dan prediksinya salah

itu berarti 10 karena yang kita taruh

itu 100 buah apel Ternate yang bener itu

90 jadi 10 dan turun negatif itu 880

karena total yaitu yang buah lainnya itu

900 yang tadi salah itu 20900 dikurangi

28080 ini perhitungan akurasi presisi

dan rekor Nah untuk selanjutnya kita

akan membahas mengenai implementasi

deepening pada segmen 3 berikutnya Oke

sangat nih penjelasannya bukannya Terima

kasih baik pengisi gtv kita akan jedaan

namun perlu kami infokan bahwa adik-adik

mahasiswa jangan beranjak dulu nanti ada

pengumuman pemenang quiz team teaching

the dua minggu 5 sama Minggu lakukan kek

baik
salah ngetik-ngetik kita akan kembali

kita lihat tidak program dekat ini Baik

tunai Sayu TV serta adik-adik mahasiswa

Gunadarma kembali lagi di program acara

literasi edisi khusus perkalian tim

teaching mata kuliah komputasi big-data

tadi disegmen satu kita sudah

diperkenalkan oleh Bu Feni mengenai di

perning kemudian di segmen 2 kita sudah

dibahas mengenai salah satu metode dari

diesel Ning yaitu convolution reverb

jadi tidak afdol jika kalau bisanya kita

tidak membahas salah satu implementasi

dari dealer Nia buka ini silakan ibu

Hai baik ah kita lanjutkan ya pada

segmen 3 untuk segmen 12 Sudah cukup

mengerti ya mengenai Apa itu Dik

learning nah pada segmen 3 ini kita mau

lihat Bagaimana sih cara

mengimplementasikan learning nah disini

akan di berikan 3 contohnya yang pertama

pengenalan tulisan angka dengan data

sheet mdvk niesya kedua untuk pengenalan

objek dan yang ketiga untuk klasifikasi

objek yah jadi yang pertama di sini eh

eh

Hai pengenalan karakter tulisan tangan

dengan dataset mjlq2 disini kita

menggunakan jaringan Deep convolutional


neural Network cleaned ya di sini

misalnya ada angka tulisan 66 ini Citra

6 ini kemudian dibagi menjadi Khan ini

scba jadi pixelnya itu dari satu sampai

255 nanti ini masih messengeran itu akan

saling terkoneksi apa saling terhubung

saling berkomunikasi ya untuk belajar

untuk menebak nanti Citra Ini tuh

bertulisan Angka berapa ya seperti itu

Nah disini kita menggunakan piton dengan

library keras jadi diawali dengan

pendefinisian kode lined ini ya di kita

mendefinisikan modul-modul

terlebih dahulu disini kita menggunakan

modul konvolusi dua dimensi 2D Nah di

sini kita melakukan pemanggilan

label-label Ria model yang digunakan

juga kita menggunakan model sekuensial

Jadi selain sekuensial itu ada yang

namanya model namanya model ya terus ada

sekuensial ada layer seperti itu Nah

Disini convolution yang digunakan

convolutions 2D Max schooling 2D

kemudian fungsi aktivasi flatten dance

itu arsitektur yang kita Panggil untuk

CNN kemudian datasheetnya datasheetnya

m.ytb ini bisa kita download deh Oh

dengan mudah kemudian of times optimis

Arya SG Dr MS Prof dan Adam ya di sini

kita definisikan jaringan dari lines


jaring

ini merupakan tahap konvolusional

pertama dengan aktivasi relu yang

diikuti oleh Max pooling dan jaringan

ini akan mempelajari 20 filter

convolutional yang masing-masing

memiliki ukuran lima kali lima dimensi

output sama dengan input jadi akan

menjadi 28 kali 28 ya convolution 2D

adalah tahap pertama pada jaringan ini

maka selanjutnya ditentukan input shaft

nya nya disini didefinisikan atau

modeled yaitu convolution 2D kenal size

itu lima kali lima ya filternya wedding

yaitu the same kemudian input shaft nya

kita definisikan kita pakai fungsi

aktivasinya relo full size-nya 222222

ini dua ya bisa ditulis dua juga

straight nya dua ya kemudian tah rahab

konvolusional

kedua ini masih sama dengan karena saya

5 redding relu Straight nya 20 saya dua

kemudian pendefinisi telah convolution

layer kita lakukan pendefinisian fungsi

standar flatten ya didefinisikan fungsi

standar untuk Selatan terhadap jaringan

dan C itu dengan 500 neuron diikuti

classifier softlens dengan 10 kelas yah

jadi karena ini 10 ke sangka itu kan


0123456789 jadi ada 10 kelas ya kita

menggunakan soft Max karena kita

menentukan dia termasuk kategori Angka

berapa seperti itu ya kemudian ya ini

masih pendefinisian arsitektur CNN ya

ini

ini aku kemudian dilakukan training kita

harus menentukan jumlah ebooknya beach

situ seperti jumlah gambar yang diperas

Berapa jumlah gambar yang diproses

sebelum dilakukannya update Widya

selanjutnya validation flight disini

misalnya 0,2 jadi dari data misalnya

Datanya ada 1000 kita bagi menjadi 0,2

nya 0,2 kali seribunya itu untuk

kalibrasi data sisanya untuk training ya

kemudian disini dilakukan normalisasi ya

dibagi dengan 255 jadi nilai Eto dari

0-1 semuanya dibuat seragam dari ukuran

dari isinya ya normalisasinya Nah

kemudian dilakukan training baru kita

siapkan data untuk siap ditraining

kemudian kita Panggil kompak compile ya

Hai dan terakhir itu kita lakukan

evaluasi evaluasi itu disini kita

menghitung akurasi Akurasi ya Untuk

melihat seberapa bagus kita bisa

menampilkan dengan perintah print di

sini ada Float apa slot dari

perbandingan antara hasil dari training


dan hasil dari testing Nah dari sini

output dihasilkan tes akurasi nya

sebesar 99 persennya cukup baik ya kalo

dari gambar dilihat grafik yang berwarna

biru itu grafik yang ngetren Ning yang

orange itu yang testing ya disini kita

bisa coba-coba nih dari arsitektur dari

mulai coba-coba Berapa besar efeknya

websitenya ternyata itu juga Berapa

jumlah hidden layer nya ternyata

Hai mempengaruhi dari tingkat akurasinya

ya Nah ini tergantung Kalian mau

arsitekturnya seperti apa kalau dari

sini Saya baru mencoba mengenai

perubahan jumlah Evoque semakin banyak

Evoque maupun jumlah hidden layer maka

akurasi yang dihasilkan juga semakin

baik ya di sini yang paling baik itu

dihasilkan 99% ini membuktikan bahwa

kinerja di planning cukup baik dalam

mengenali karakter tulisan tangan angka

ya Nah itu contoh yang pertama Nah

contoh yang kedua di sini implementasi

sifar 10 nah ini juga sifat 10 merupakan

dataset yang isinya objek-objek ya sifat

10 berarti kita diberikan 10 objek yang

berbeda ya Ada shivaree bermacam-macam

ya ini juga mudah untuk mendownload

Hai Aa cari di Google sudah ada


datasheetnya disini untuk sifat 10

diambil objek-objek airplane pesawat

automobiles mobil bet cats dear dogcroc

hours save dan truk edisi ini ada 10

objek yang berbeda ya Nah di sini kalau

nggak salah ini ada 10 dan Rp60.000 jadi

masing-masing ada yang 600 ada jumlahnya

cukup banyak dan bisa untuk dilakukan

menggunakan lightning berat seperti

sebelumnya pertama kita pendek melakukan

pendefinisian dulu kita Panggil

library-library hands-free digunakan Pak

kita siapkan dataset Aa datasheetnya

sifat 10 kemudian kita tentukan beberapa

stang yang kita pakai misalnya beside

epop seperti tadi jumlah kelas

validation split seperti itu kemudian

kita siapkan dataset nya di folder mana

kita Panggil yang mana Kalau mau lihat

kita bisa Tampilkan misalnya saya

beberapa sampel aja untuk memastikan eh

isinya itu benar ya kemudian eh baru

dilakukan complete control sebelumnya

kita convert terlebih dahulu menjadi

kategori k-jah karena ini kelasnya bukan

dalam bentuk misalnya pesawat atau mobil

tapi dak bentuk kategori ya Misalnya nol

menyatakan pesawat satu Nyatakan mobil

seperti itu kemudian dilakukan

normalisasi sebelum kita training


setelah dilakukan semua ini berarti data

setting udah siap ya kemudian eh

Saab ah siapkan arsitektur dari

convolution nya ya jadi Disini yang kita

pakai model sekuensial kemudian fungsi

aktivasinya relu kemudian disini Klaten

dan saat religi dilakukan dropout jahe

setelah terakhir karena dia berupa

categorical maka digunakan fungsi

aktivasi soflex Nah setelah kita

melakukan pendefinisian arsitektur dari

CNN baru kita melakukan training ya

training kemudian kita definisikan

parameter-parameternya optimiser nya

kemudian kita menggunakan model Fit ya

Dan Terakhir model evaluasi disini

evaluasi digunakan Akurasi ya

Hai aku rase ya ya dari sini kita coba

lihat hasilnya follower diperoleh Nah

dari sini diperoleh model akurasinya

semakin banyak Evoque akurasinya semakin

besar ya dia dia naik terus tapi di

ujung-ujungnya naiknya tidak terlalu

signifikan ya Tapi tetap naik nah disini

biasanya sejalan dengan Eh lo soundnya

jadi akurasinya semakin naik biasanya

flash-nya dia semakin turun itu berarti

menandakan bahwa modelnya sudah baik ya

di sini trend itu menurut untuk


testingnya juga menurun itu enggak papa

itu pertanda bahwa mode udah sudah cukup

baik

Hai Nah contoh yang ketiga adalah

klasifikasi antara kucing dan anjing cat

and dog ya di sini procedure juga sama

dengan yang sebelumnya pertama kita

melakukan penyiapan data sheet download

dataset get Ya kalau karena ini saya

menggunakan Google koleb jadi

langkah-langkahnya itu saya buat terinci

ya jadi dari mulai penyiapan data setnya

download kemudian copy ke Google Drive

tujuannya biar saat Google kolektif kita

tutup saat kita panggil kembali dia ah

masih ada ya Kemudian yang kedua membuat

arsitektur CNN konvolusi dan fully

connected player dan yang ketiga kita

siapkan data save data sheet siap

training keempat training baru kita

lakukan prediksi kinerja dari training

yah Nah di sini ilustrasinya kita

ketikkan data 1000 aku Cing 1000 anjing

kemudian kita siapkan 500 kucing dan 500

anjing untuk validasinya ya disini saya

menggunakan Google klub pertama yang

kita lakukan kita download dulu ya lebih

bisa pakai widget ini sudah download

secara otomatis di ini nih alamatnya nah

ini download gambar dari cat sendok


tersebut kemudian kita copy ke Google

Drive

Ya udah ke Google Drive tujuannya agar

tidak hilang saat kita panggil kembali

koleksi sudah ditutup kita panggil

kembali kita tinggal ah mengaktifkannya

aja jadi tidak download dari awal lagi

Oh ya Kemudian diekstrak datasheetnya

x-ride datasheetnya Kemudian

Halo Mak nanti di dalam ah hasil

extractnya itu terdapat dua folder ya

folder cat filter dan dog filternya di

masing-masing folder tersebut Nanti juga

ada isian mengenai gambar kucing dan

anjing ya kemudian nah disini masih

dengan apa pengaturan data setnya demos

dimasukkan kedalam fungsi best Deal nih

best dear kemudian didalamnya itu kita

tulis sebagai ini apa dataset untuk

training sebagai cats terus Dogs terus

validasinya juga cash dan gold untuk

melihat isi data sheet kita bisa ambil

beberapa saja ya sampel misalnya kita

ambil beberapa buah nih A10 misalnya ya

Nah di

he eh Dek kita bisa gambarkan data yang

ada seperti apa Nah total training set

yaitu Ed 1000 kucing 1000 anjing total

validation kucingnya 500 dan anjingnya


500 Jadi kalau ditotal ini ada 3000 data

ya

Hai nah gambar-gambar ini sebelumnya ini

memiliki ukuran yang berbeda-beda

kemudian kita buat satu seragam

ukurannya beda-beda sama Ayah Nah

selanjutnya ini dilakukan persiapan

untuk ini masih menggambar ya masih

menampilkan gambar sampel dari kucing

dan anjing nah ini contohnya kucing dan

anjing GTA dengan ukuran yang berbeda ya

tapi nanti akan kita buat seragam Nah

selanjutnya setelah dataset sudah kita

ekstrak episode kita download kita

ekstrak ke Google Drive kemudian kita

lihat sampelnya juga ini sudah benar

maka selanjutnya kita siapkan arsitektur

dari CNN Ya dari sini

Hai ukuran input yang itu kita buat

seragam jadi 150 dikali 150 Jadi yang

tadi ukurannya berbeda Sekarang semua

150 kali 160 dengan channel hati gaya

ajibi nah kemudian di sini kita pakai

berapa konvolusi nih layar konvolusi C

ini agak kurang jelas ke ini tiga ya

Jadi Yang Pertama konvolusi Pertama

Cerme 16 ya 16 kemudian eh fungsi

aktivasinya relu kemudian maksudku

link-nya 2-nya dilanjutkan oleh

konvolusi yang kedua dengan speaker


mapnya

Ndak ini kalo nggak salah ini ada Iya

baik di sini ada tiga convolution

layarnya ya kemudian setelah dilakukan

pembentukan arsitektur CNN dilanjutkan

dengan persiapan dataset untuk

ditraining ya ini programnya kemudian

kita jalankan di sini kita menentukan 15

f oke nah dari yang efek Pertama eh

terlihat bahwa lossnya apa akurasinya

masih kecil akurasi training masih

dikisaran 0,5 validation yaitu masih 0,6

ini wajar ya masih kecil karena ini baru

efek pertama

Hai nih Evo kedua sekitar sudah bisa

melihat bahwa ada kenaikan tingkat

akurasinya dari yang akurasi trainingnya

0,5 menjadi 0,6 kemudian ah akurasi

validasinya meningkat juga 0,0

69 ya Nah kita lihat sampai terakhir

efek terakhir enggak maaf nah disini

Evoque terakhir Oke ini belum

ditampilkan tapi di sini dihasilkan

akurasi dari kali apa training lebih

besar dibanding akurasi dari validasi

ini sebenarnya kurang baik ya pertanda

kurang baik karena ini dinamakan sebagai

overfitting jadi model yaitu bagus saat

Hening untuk data trainingnya saja tapi


saat testing dia kurang bagus berarti

dia kurang mewakili dari keseluruhan

data ya Jadi ini ada kemungkinan dari

kesalahan dari atau ke

Adel arsitektur sdnya D6 ini kita coba

coba ya jadi jangan takut ini enggak ini

tuh hal yang biasa-biasa saja nanti kita

bisa mengganti atau menambahkan atau

mengurangi dari layer-layer konvolusi

atau berapa baik size-nya sampai dengan

kita menemukan atau mendapatkan akurasi

yang sesuai yang terbaik

yo yah jadi disini kalau kita lihat apa

prediksi-prediksi untuk tespeknya

diperoleh nih Nah dari training kita

lihat trainingnya itu untuk akurasi dia

akan semakin naiknya yang biru ya yang

trending nah tapi untuk yang validasi

dia data Raja Sedangkan untuk proses

ponselnya Nah di sini juga aku intinya

lo sorenya juga yang diperoleh semakin

besar itu menandakan model kurang bagus

ya Tapi enggak papa ini namanya kita

belajar jadi disini berarti karena

akurasi saat validasi lebih eh saat

testing lebih tinggi dibanding akurasi

saat validasinya maka ini dinamakan

terjadi overfitting Nah overfitting ini

banyak sekali kita eh

cara mengatasi dari overfitting ini bisa


aja salah satunya seperti tadi Drop Out

regulation regularisation dengan

membuang beberapa neuron yang kurang

berperannya kurang bermakna istilahnya

atau juga kita mengganti arsitektur dari

seenaknya tadinya convolution layarnya

ada dua kemudian kita pakai Hah tiga

misalnya Sehat terus Max pollingnya atau

enggak dilakukan Straight atau padding

nya seperti apa atau dari number 6

berbaik size-nya seperti itu Jadi ini

ada berbagai cara eh tujuannya untuk

membuat model sebaik mungkin atau

akurasinya besar dan Los fungsinya kecil

seperti itu

Hai Nah jadi ini kesimpulannya

Hai artificial intelegent merupakan

sistem yang masih manual sebenarnya dan

masih harus disetting untuk melaksanakan

suatu tugas tertentu kemudian datang

adanya machine learning adalah suatu

program pembelajaran yang berupa saraf

neuron yang berfungsi untuk memerintah

pada komputer jadi istilahnya seperti

machine-learning ya mesin atau kelompok

di dalam hal ini komputer-komputer yang

belajar dari data agar menjadi cerdas

sehingga dapat dimanfaatkan seperti itu

ya fashion Hening Nah kemudian ada lagi


diploting tadi mesin itu dia fokus

terhadap satu tugas atau satu

permasalahan aja ya Jadi kalau ada

beberapa permasalahan dia mengerjakan 11

nah disini selanjutnya ada yang lebih

edvance lagi yang dinamakan dengan

dikloning yaitu diplome itu kemampuan

sistem

yang disetting dengan baik demi

meningkatkan kinerja pada komputer jadi

kalau kita ketemu data yang sangat

banyak perhitungannya itu semakin tahu

apa semakin Kompleks maka ini eh kita

bisa memanfaatkan deepening ya tentunya

dengan bantuan seperti hardware-nya JPU

seperti itu kemudian deepening dikaitkan

dengan activision your netbook yang

menggunakan simulasi cara kerja otak

manusia yang terdiri dari beberapa

lapisan yang saling terhubung dan

komunikasi jadi sering dinamakan itu

bukan artificial neural Network tapi ah

Deep newrock ya diperoleh karena dia

hidden layer yaitu lebih dari dua ya

jadi di dalam hidden layer itu dia terus

belajar untuk dalam bentuk mengupdate

bobot agar akurasinya semakin besar

Hai seperti itu nya implementasi

deepening dapat dilakukan pada berbagai

permasalahan ya dari klasifikasi deteksi


recognize the natural language

processing dan lain sebagainya ya Jadi

kalau lihat image implementasi sekarang

nih di perusahaan-perusahaan seperti

telekomunikasi kalau kita lihat seperti

Traveloka misalnya ya itu sudah mengolah

jutaan data dari mulai orang memesan

memesan jasa untuk pengantaran misalnya

itu apa lalu kemudian datanya itu berupa

masuk ke dalam SI drivernya kemudian

akan ada solusi memicingkan memasangkan

antara kebutuhan dan kebutuhan itu si

pengguna dan Swift drivernya nah seperti

itu itu berkaitan

Nda tak jadi sumberdaya sekarang itu

bukan minyak bumi lagi minyak goreng

ikan sumber daya terbatas ya sekarang

sumberdaya yang terus bertambah itu data

semakin banyak Data perhitungannya juga

semakin besar maka kita akan semakin

memerlukan di planning ya oleh karena

itu banyak sekali sekarang perusahaan

besar seperti Google Facebook Amazon

Instagram semuanya sudah dikaitkan

dengan di Pulau nih ya ya

Hai Oke ini planning dapat dikatakan

sebagai teknik activision intelejen yang

paling baik jika dibandingkan dengan

mesin Ning karena dapat mengakomodir


data dan perhitungan yang kompleks

berdasarkan efisiensi dan tingkat

akurasi yang dihasilkan ya Jadi ini

sebenarnya kesimpulan dari pemaparan

mengenai pengenalan dikloning

bab7 sampai sini di sini beri Dewi ya

Wah sangat komprehensif sekali ya Bu

salah detail dari awal pembagian mana

cara mengambil data setnya kemudian

membentuk arsitektur CNN ya sampai ke

validasinya Nah sekarang saya ingin Nose

dipakai oleh Bu Jadi kalau bagi

adik-adik atau come in stage TV yang

ingin mempelajari defleur Ning

sebenarnya enggak usah takut ya ke untuk

membentuk aspire.com ya Jadi ada bro

para Neter yang dipakai seperti Evo

beside gaya gue itu angka-angkanya kita

pakainya situ coba-coba Ya udah jatuh

disudut lahir meneror Iya betul itu ada

teorinya sendiri atau hang coba-coba

saja ini pada umumnya sih jadi kalau

kita udah semakin sering melakukan akan

kita mengakan mempunyai suatu pola-pola

hal ini bagusnya itu menggunakan

parameter yang mana dan besarnya seperti

apa seperti itu Jadi intinya kita

n****** Mencoba Ya apalagi di sini

sekarang sangat bebas ya ilmu yang

diberikan secara gratis baik itu di


Google dari Kegel tadi collects dari

YouTube itu semua bisa kita maksimalkan

jadi kita tidak harus wajib mengikuti

kursus tertentu disini sudah tersedia ya

seperti itu dan kita nggak perlu coding

dari nol Ya gue enggak berlabel nih

Sudah ada Jadi sebenarnya kita lebih

bagus tuh kita tahu bagaimana ini

dipakainya untuk apa dan kita bisa

menggantikan T atau mengubah sesuai

dengan keperluannya ini untuk sesuai

dengan tujuannya untuk apa seperti itu

ada bocoran Sedikit lupa kodenya dapat

dari mana nih kalau fajir ini banyak ya

Kak Kalau dibuka juga ada di YouTube

juga ada di githack juga ada ya seperti

itu banyak

Hai sekali kalian loncat di Google

mencari misalnya contoh implementasi

dikloning atau V itu udah banyak pilihan

intinya berani untuk mencoba itu yang

datanya berarti kalian harus rajin

mencari lihat ada ini ya apa namanya Oh

ingin rasa ingin tahu challenge

penampang loh ya yang menantang karena

kalau kita lihat sendiri ya Sekarang

semua hampir semua perusahaan sangat

butuh orang data science ya Jadi yang

bisa mengoperasikan yang bisa membuat


model learning seperti itu kini bisa

karena sudah di akhir Sunny idiot Terima

kasih sekali Bu Feni buat pembahasannya

mengenai di perning sampai ke

implementasinya sampai caranya dari awal

hingga akhir juga ya sangat menarik

sekali dansa fikir nanti adik-adik

mahasiswa ataupun message Facebook

Hai semangatnya untuk mempelajari

diperingatkan mencoba untuk memulai

mempelajari di perning Iya jadi Allah

kami informasikan bahwa bisa menyaksikan

program literasi eh edisi khusus tim

teaching kalau mata kuliah komputasi

didata di hari yang sama yaitu di hari

Senin kemudian Allah kami informasikan

kembali bahwa nanti di akhir ada

pengumuman pemenang kuis tim teaching

Prada dua minggu 5 sampai Minggu 8 oke

baiklah waktu bisa sekian pemaparan

materi kita kali ini Terima kasih Bu

Feni dana sampai jumpa di acara

berikutnya pastinya dengan topik-topik

menarik lainnya dan wassalamu'alaikum

warahmatullahi wabarakatuh

Waalaikumsalam warahmatullah

[Musik]

hai hai

Anda mungkin juga menyukai