Anda di halaman 1dari 11

Nama : Listiani Clara Rowa

Cari referensi dari internet, contoh kasus pemanfaatan model clustering dengan Azure,
kemudian berikan analisis Anda atas contoh tersebut!

Live Video Analytics at Scale with Approximation and Delay-Tolerance

Kamera video digunakan secara luas untuk skenario keamanan dan kota pintar, dengan jutaan di
antaranya di kota-kota besar di seluruh dunia. Untuk mencapai potensi kamera ini, diperlukan
analisis video langsung secara efisien secara realtime.

Penulis mendeskripsikan VideoStorm, sistem analisis video yang memproses ribuan kueri
analitik video pada streaming video langsung melalui kluster besar. Mengingat tingginya biaya
pemrosesan visi, manajemen sumber daya sangat penting.

Penulis mempertimbangkan dua karakteristik utama analitik video: pertukaran kualitas sumber
daya dengan multi-dimensi konfigurasi, dan variasi dalam kualitas dan tujuan lag. Profiler offline
VideoStorm menghasilkan profil kualitas sumber daya kueri, sementara penjadwal online-nya
mengalokasikan sumber daya ke kueri untuk memaksimalkan kinerja pada kualitas dan
kelambatan, berbeda dengan pembagian sumber daya yang biasa digunakan secara adil dalam
kelompok.

Penerapan pada klaster Azure dari 101 mesin menunjukkan peningkatan sebanyak 80% dalam
kualitas kueri dunia nyata dan jeda 7x lebih baik, memproses video dari kamera lalu lintas
operasional.

 Organisasi yang menggunakan kamera ini kota atau departemen kepolisian


mengoperasikan kluster besar untuk menganalisis aliran video.
 Bandwidth yang memadai disediakan (tetesan serat atau seluler) antara kamera dan
kluster untuk menyerap aliran video.
 Penulis menghadirkan VideoStorm, sistem analitik video yang menskalakan untuk
memproses ribuan streaming video langsung melalui kluster besar.
 Mengekspresikan sasaran kualitas dan kelambatan dari kueri individual dan di semua
kueri dalam sebuah kluster bukanlah hal yang sepele.
Nama : Listiani Clara Rowa

 Cluster VideoStorm terdiri dari manajer terpusat dan satu set mesin pekerja yang
mengeksekusi kueri, Setiap kueri adalah DAG transformasi pada video langsung yang
terus dialirkan ke cluster; setiap transformasi memproses aliran pesan yang diatur waktu
(misalnya, bingkai video) dan meneruskan outputnya ke downstream.
 Kueri lain untuk mendeteksi pelat nomor berjalan pada satu mesin. Kami berasumsi ada
cukup bandwidth yang disediakan untuk kamera untuk mengalirkan video mereka ke
dalam cluster.
 Manajer cluster seperti Yarn , Apollo dan Mesos biasanya membagi sumber daya di
antara beberapa kueri berdasarkan resource fairness.
 Pertama, ruang konfigurasi kueri bisa besar dan tidak ada model analitik untuk
memperkirakan permintaan sumber daya dan kualitas hasil setiap konfigurasi.
 Kedua, pertukaran antara lag dan sasaran kualitas kueri itu rumit, sehingga sulit untuk
menentukan tujuan penjadwalan di semua kueri dalam cluster.
 Ketiga, alokasi sumber daya di semua kueri di cluster masing-masing dengan banyak
konfigurasi sulit dilakukan secara komputasi, menghadirkan tantangan skalabilitas.
 Sasaran kinerja di semua kueri dalam sebuah cluster ditentukan baik sebagai
memaksimalkan utilitas minimum atau jumlah utilitas.
 Dalam fase online, penjadwal klaster VideoStorm mempertimbangkan utilitas kueri
individu dan tujuan kinerja seluruh klaster dan secara berkala melakukan dua langkah:
alokasi sumber daya dan penempatan kueri.
 Pada langkah alokasi sumber daya, penjadwal mengasumsikan cluster adalah kumpulan
sumber daya agregat dan menggunakan heuristik yang efisien untuk memaksimalkan
kinerja seluruh cluster dengan menyesuaikan alokasi dan konfigurasi kueri. Dalam
langkah penempatan kueri, penjadwal menempatkan kueri baru ke mesin di kluster dan
mempertimbangkan untuk memigrasi kueri yang ada.
 Penjadwalan tujuan.
Mengingat utilitas kueri individu, bagaimana kita mendefinisikan utilitas atau kinerja
seluruh cluster? Pekerjaan sebelumnya biasanya bertujuan untuk memaksimalkan utilitas
minimum atau jumlah utilitas, yang kami adopsi. Saat digunakan sebagai "layanan" di
cloud publik, utilitas akan mewakili pendapatan yang dihasilkan operator klaster dengan
mengeksekusi kueri; penalti dan bonus dalam utilitas diterjemahkan menjadi kerugian
Nama : Listiani Clara Rowa

dan peningkatan pendapatan. Oleh karena itu, memaksimalkan jumlah utilitas


memaksimalkan pendapatan. Dalam klaster pribadi yang dimiliki bersama oleh banyak
entitas yang bekerja sama, pencapaian keadilan lebih diinginkan. Meningkatkan utilitas
kueri terburuk secara maksimal memberikan max-min fairness over utilities.
 Penulis merumuskan masalah penjadwalan menggunakan kerangka Model-Predictive
Control di mana penulis memodelkan kinerja cluster selama cakrawala waktu singkat T
sebagai fungsi konfigurasi dan alokasi kueri. Di setiap langkah, penulis memilih
konfigurasi dan alokasi untuk memaksimalkan kinerja dalam waktu dekat untuk
memprediksi kinerja di masa mendatang, penulis perlu memprediksi jeda kueri; kami
menggunakan rumus berikut:

 Utilisasi yang tinggi dalam cluster dapat dicapai dengan mengemas kueri ke dalam
mesin, sehingga meminimalkan fragmentasi dan pemborosan sumber daya.
 Menyebarkan beban di seluruh cluster memastikan bahwa setiap alat berat memiliki
kapasitas cadangan untuk menangani perubahan permintaan.
 Karena sebagian besar kueri muat pada satu mesin, dapat merespons perubahan
permintaan atau kelambatan di tingkat mesin, tanpa menunggu keputusan di seluruh
klaster. Oleh karena itu, penulis menjalankan langkah alokasi dari setiap mesin, yang
membuat logika penjadwalan jauh lebih terukur. Penjadwal seluruh cluster masih
menjalankan langkah alokasi, tetapi hanya untuk tujuan menentukan penempatan dan
migrasi kueri.
 Berbeda dengan kerangka kerja cluster yang banyak digunakan seperti Benang [3],
Mesos [49] dan Cosmos [31], kami menyoroti perbedaan dalam desain VideoStorm.
Pertama, VideoStorm mengambil daftar tombol, profil kualitas sumber daya, dan tujuan
lag sebagai input untuk mengalokasikan sumber daya. Kedua, manajer tingkat mesin
dalam kerangka kerja cluster menarik pekerjaan, sedangkan manajer VideoStorm
mendorong kueri baru dan perubahan konfigurasi ke manajer mesin. Terakhir,
VideoStorm memungkinkan manajer mesin menangani fluktuasi jangka pendek secara
mandiri.
 VideoStorm memigrasikan kueri bergantung pada beban di kluster.
Nama : Listiani Clara Rowa

 Penulis mengevaluasi prototipe VideoStorm (x7) menggunakan sekelompok 101 mesin di


Microsoft Azure dengan kueri video nyata dan kumpulan data video. Sorotan kami:
1. VideoStorm mengungguli penjadwal yang adil sebesar 80% dalam kualitas output
dengan lag 7x lebih baik.
2. VideoStorm tahan terhadap kesalahan dalam profil kueri dan mengalokasikan hampir
sama dengan profil yang benar.
3. VideoStorm menskalakan ke ribuan kueri dengan sedikit overhead eksekusi sistemik.
 Bahkan dengan ribuan pertanyaan, VideoStorm membuat keputusannya hanya dalam
beberapa detik. Ini sebanding dengan skalabilitas penjadwal dalam kluster data besar, dan
kluster analitik video tidak mungkin melebihi mereka dalam jumlah kueri.
 Penjadwal klaster. Penjadwal cluster [3, 31, 39, 42, 44, 49, 86] tidak memenuhi tujuan
kinerja analisis video streaming. Mereka mengambil permintaan sumber daya dari tugas
(bukan profil), sebagian besar mengalokasikan berdasarkan keadilan/prioritas, dan tidak
mengubah ukuran wadah yang berjalan, kunci untuk menangani churn sumber daya di
VideoStorm.

Kesimpulan :

VideoStorm adalah sistem analitik video yang menskalakan untuk memproses ribuan aliran
video dalam kelompok besar. Kueri analitik video dapat menyesuaikan kualitas hasilnya
berdasarkan sumber daya yang dialokasikan. Aspek inti VideoStorm adalah penjadwalnya yang
mempertimbangkan profil kualitas sumber daya kueri, masing-masing dengan berbagai tombol,
dan toleransi terhadap kelambatan dalam pemrosesan. Penjadwal mengoptimalkan bersama-sama
untuk kualitas dan keterlambatan kueri dalam mengalokasikan sumber daya. VideoStorm juga
secara efisien memperkirakan profil kualitas sumber daya kueri. Penerapan pada cluster Azure
dari 101 mesin menunjukkan bahwa VideoStorm dapat secara signifikan mengungguli
penjadwalan sumber daya yang adil, kebijakan yang banyak digunakan di cluster saat ini.

Cari referensi dari internet, contoh kasus pembuatan saluran inferensi model clustering di
Azure, kemudian berikan analisis Anda atas contoh tersebut!

Intelligent flood disaster warning on the fly: developing IoT-based management platform and
using 2-class neural network to predict flood status.
Nama : Listiani Clara Rowa

Jumlah bencana alam yang terjadi setiap tahun meningkat pada tingkat yang mengkhawatirkan
yang telah menyebabkan keprihatinan besar atas kesejahteraan hidup manusia dan kelangsungan
ekonomi.

Pola curah hujan juga telah terpengaruh dan ini telah menyebabkan sejumlah besar kasus banjir
dalam beberapa waktu terakhir. Bencana banjir merusak ekonomi dan kehidupan manusia. Setiap
tahun, jutaan orang terkena dampak banjir di Asia saja.

Hal ini menjadi perhatian pemerintah untuk mengembangkan metode prakiraan banjir untuk
mengurangi korban banjir. Dalam artikel ini, metode mitigasi banjir akan dievaluasi yang
menggabungkan aliran mini, sensor ketinggian air, dan pengukur tekanan.

Data dari kedua sensor tersebut digunakan untuk memprediksi status banjir menggunakan
jaringan syaraf tiruan 2 kelas. Pemantauan data secara real-time dari sensor ke saluran
Thingspeak dimungkinkan dengan penggunaan NodeMCU ESP8266.

Selanjutnya, Microsoft Azure Machine Learning (AzureML) memiliki jaringan saraf 2 kelas
bawaan yang digunakan untuk memprediksi status banjir sesuai dengan aturan yang telah
ditentukan sebelumnya.

Model prediksi telah diterbitkan sebagai layanan Web melalui layanan AzureML dan
memungkinkan prediksi saat data baru tersedia. Hasil eksperimen menunjukkan bahwa
penggunaan 3 hidden layer memiliki akurasi tertinggi sebesar 98,9% dan presisi 100% ketika
menggunakan jaringan saraf tiruan 2 kelas.

 Kumpulan data yang berasal dari sensor yang ditanamkan pada tanggul dimodelkan
menggunakan klasifikasi neural cloud (NC) serta algoritma pengelompokan k-means
untuk mengevaluasi kerentanan tanggul. Dalam , Cluster data pelatihan dibagi menurut
hierarki rata-ratanya dan digunakan untuk memprediksi pengamatan selanjutnya
tergantung pada pengaturan pengelompokan k-means.
 Boosted regression tree adalah model jaringan saraf yang mengurangi kesalahan pada
jaringan pohon sebelumnya dengan membatasi perbedaan rata-rata dari data yang diuji.
Menggunakan sistem hibrid neuro-fuzzy inference (ANFIS) untuk memodelkan data
curah hujan dan sistem mengintegrasikan fuzzy dan jaringan saraf. Klasifikasi input ke
Nama : Listiani Clara Rowa

dalam fungsi anggota dilakukan oleh sistem fuzzy dan outputnya dapat digunakan untuk
membuat keputusan dan tujuan kontrol. Dalam kasus penggunaan jaringan saraf di
ANFIS, input dari fungsi anggota disetel yang mengurangi waktu pemrosesan dan
meningkatkan kinerja.
 Deret yang secara eksternal mempengaruhi deret input disebut deret eksogen.
Mengadopsi regresi linier berganda, teknik Dvorak dan sistem inferensi neuro-fuzzy
adaptif untuk menghitung data meteorologi yang meliputi tekanan, suhu, kelembaban
yang melalui proses pelatihan untuk menemukan korelasi terbaik untuk sistem yang
dikonfigurasi. Pendekatan ini wajib dilakukan untuk menemukan alternatif terbaik untuk
sistem kereta agar efektif dalam mendeteksi banjir musiman tahunan. Mengakses data
satelit untuk mengurangi redaman yang disebabkan oleh curah hujan. Selain itu, ini
memberikan wawasan tentang cara bahwa data prediksi banjir dapat berguna dalam
membantu keandalan tautan dalam komunikasi satelit antariksa Bumi.

Kesimpulan :

Penggunaan miniaturisasi sensor aliran dan sensor ketinggian air telah membuat percobaan ini
berhasil membangun sistem pemantauan banjir yang dapat berguna juga untuk prakiraan banjir.
Penggunaan pengukur tekanan meter adalah untuk memastikan bahwa peningkatan tekanan
berkorelasi dengan peningkatan laju aliran.

Percobaan tersebut mampu membuktikan bahwa ada hubungan yang kuat antara peningkatan
tekanan air dan laju aliran air. Koefisien korelasi ganda yang diuji menjadi 36,75% sesuai
dengan hubungan yang kuat antara laju aliran dan tekanan. Transmisi data real-time dari sensor
dimungkinkan karena data dicatat di saluran Thingspeak untuk visualisasi virtual dari data yang
direkam.

Paket built-in khusus yang tersedia di Azure ML digunakan untuk memprediksi status banjir
sesuai dengan data yang diperoleh dari sensor aliran dan ketinggian air. AzureML efisien dalam
mengimplementasikan seluruh alur kerja serta menerbitkan alur kerja sebagai Layanan Web.
Selanjutnya, layanan web dapat memprediksi status banjir dari parameter input baru yang
dimasukkan ke antarmuka Excel Online.
Nama : Listiani Clara Rowa

Hasil analisis prediksi menunjukkan bahwa akurasi tertinggi sebesar 98,9% dan presisi 100%
saat menggunakan 3 lapisan tersembunyi. Dalam pekerjaan di masa depan, itu akan menambah
kekokohan percobaan ini jika lebih banyak sensor ditambahkan yang dapat meningkatkan
sensitivitas status prediksi jaringan saraf.

Selain itu, pemodelan data yang diperoleh dari sensor dengan model jaringan saraf lainnya akan
menguji efektivitas tingkat pembelajaran jaringan saraf 2 kelas. Modifikasi lebih lanjut perlu
dilakukan pada sistem pemantauan banjir untuk memungkinkan penyebaran dan pengujian di
luar ruangan.

Cari referensi dari internet, contoh kasus penerapan layanan prediktif model clustering di
Azure, kemudian berikan analisis Anda atas contoh tersebut!

SMART TICKETING Continuous learning system for document classification.

Tujuan dari penelitian ini adalah untuk menunjukkan bagaimana membangun sistem
pembelajaran berkelanjutan untuk klasifikasi dokumen. Sebuah proyek yang dilakukan di CGI
NEAAS, yang tesis ini berputar di sekitar, bertujuan untuk membuat titik akhir cloud klasifikasi
otomatis untuk memprediksi kategori tiket layanan. Data yang digunakan untuk memprediksi
sebagian besar terdiri dari teks yang diketik manusia.

Teori dan konsep kunci di balik Pemrosesan Bahasa Alami, klasifikasi pembelajaran mesin,
komputasi awan, dan manajemen siklus hidup pertama kali dijelaskan. Kerangka kerja solusi
yang ada pada platform cloud diperiksa. Arsitektur solusi terperinci pada platform cloud Azure
diusulkan. Proses implementasi sistem yang dirancang berdasarkan otomatisasi pipa dijelaskan
secara rinci. Python digunakan sebagai bahasa pemrograman untuk implementasinya.

Sistem yang dihasilkan menggunakan kombinasi pipeline CI/CD yang disebut Azure Pipelines
dan pipeline khusus pembelajaran mesin yang disebut pipeline ML. Solusinya menerapkan
prinsip dan praktik MLOps, dengan fokus pada penambahan pelatihan berkelanjutan atau
fungsionalitas CT ke rangkaian pipeline, di samping CI dan CD. Hal ini memungkinkan model
pembelajaran mesin baru dilatih dan diterapkan secara otomatis saat data tiket berubah dan
performa model menurun.
Nama : Listiani Clara Rowa

 Pelatihan model memerlukan sumber daya komputasi awan untuk menjalankan proses
prapemrosesan, pelatihan, dan evaluasi di lingkungan tertentu. Sumber daya komputasi,
juga disebut target komputasi adalah mesin virtual (VM) yang terdiri dari hampir semua
CPU virtual, GPU, dan memori. GPU dan CPU yang lebih cepat lebih mahal tetapi juga
mengurangi waktu pelatihan. GPU sangat berperforma saat melatih Neural Network
tertentu seperti Convolutional Neural Networks . Selain node VM instance tunggal, target
komputasi juga dapat terdiri dari cluster node. Cluster memungkinkan model untuk
dilatih sepenuhnya secara paralel dan mereka dapat diatur untuk diskalakan secara
otomatis.
 Docker adalah alat containerization yang populer dan biasanya digunakan untuk
mengelola container aplikasi tunggal di cloud. Docker, serta jenis wadah lainnya, dapat
dihosting di beberapa jenis skema hosting di awan. Skema yang berbeda juga mendukung
wadah hosting sebagai instance atau cluster tunggal. Cluster kontainer memerlukan
orkestrasi kontainer untuk penyediaan, penjadwalan, dan pengelolaan. Orkestra kontainer
buruh pelabuhan yang populer termasuk Kubernetes, DC/OS, dan Docker Swarm.
Sebuah cluster dapat memiliki sejumlah node pekerja fisik atau virtual dengan sumber
daya komputasi dan memori yang dipilih. Cluster juga dapat dikonfigurasi untuk
menskalakan secara otomatis dengan membuat lebih banyak container paralel saat
memuat meningkat. Untuk penyiapan yang disederhanakan, seperti menjalankan
container instance tunggal, penyedia cloud utama juga memiliki strategi penerapan dan
hosting mereka sendiri.
 Workspace adalah lingkungan tingkat atas di Databricks, berisi dan mengatur semua
sumber daya proyek Databricks, seperti buku catatan dan eksperimen. Buku catatan
Databricks adalah halaman web, format buku catatan interaktif yang dapat berisi kode
yang dapat dijalankan, visualisasi, dan teks dokumenter. Ini mirip dengan Jupyter tetapi
sebagian besar diarahkan untuk pengembangan Spark dan cloud. Databricks berjalan di
cluster. Sebuah cluster Databricks pada dasarnya merupakan satu set sumber daya
komputasi dan lingkungan. sebuah Cluster terdiri dari sejumlah pekerja yang bergantung
pada platform atau target komputasi tertentu, opsi penskalaan, variabel lingkungan, dan
konfigurasi lainnya. Ada dua jenis utama cluster. Cluster serba guna digunakan untuk
Nama : Listiani Clara Rowa

menjalankan tugas yang ditentukan dalam buku catatan dan dapat dibagikan di antara
pengembang serta dihentikan dan dimulai ulang sesuka hati.
 Gugus tugas dicadangkan untuk menjalankan tugas otomatis yang ditentukan dan
dikelola oleh penjadwal tugas Databricks. Sistem File Databricks atau DBFS adalah
sistem file terdistribusi terintegrasi milik Databricks yang tersedia di cluster dan
diimplementasikan sebagai abstraksi dari layanan penyimpanan yang dapat diskalakan
seperti akun Azure Storage dan S3. Dimungkinkan juga untuk memasang penyimpanan
objek cloud ke DBFS untuk penggunaan langsung di Databricks. Databricks memiliki
serangkaian Runtime yang berbeda untuk tujuan pengembangan berbeda yang
menentukan komponen mana yang tersedia untuk cluster Databricks. Ini termasuk
Databricks Runtime, Databricks Runtime dengan Conda, Databricks Runtime untuk
Machine Learning, Databricks Runtime untuk Genomics, dan Databricks Light.
 Model yang terlatih dapat digunakan ke dalam cluster komputasi yang dihosting di cloud
untuk konsumsi yang cepat dan sangat tersedia. Model juga dapat dipantau, dan data
pemantauan disimpan di cloud.
 Selain node VM instance tunggal, target komputasi juga dapat terdiri dari cluster node.
Cluster memungkinkan model untuk dilatih sepenuhnya secara paralel dan mereka dapat
diatur untuk diskalakan secara otomatis.
 Skema yang berbeda juga mendukung wadah hosting sebagai instance atau cluster
tunggal. Cluster container memerlukan orkestrasi container untuk penyediaan,
penjadwalan, dan pengelolaan.
 Sebuah cluster dapat memiliki sejumlah node pekerja fisik atau virtual dengan sumber
daya komputasi dan memori yang dipilih. Cluster juga dapat dikonfigurasi untuk
menskalakan secara otomatis dengan membuat lebih banyak container paralel saat
memuat meningkat. Untuk penyiapan yang disederhanakan, seperti menjalankan
container instance tunggal, penyedia cloud utama juga memiliki strategi penerapan dan
hosting mereka sendiri.
 Ini menyiratkan bahwa untuk beberapa alasan, teks Rusia lebih sulit untuk
diklasifikasikan, memiliki kata kunci yang kurang prediktif. Nilai C optimal untuk setiap
model bahasa cukup mirip tetapi tol memiliki beberapa varian.
Nama : Listiani Clara Rowa

 Skor rata-rata semua model yang ditimbang berdasarkan jumlah sampel masing-masing
bahasa adalah 0,6946 atau sekitar 69,5%. Skor rendah seperti itu diharapkan mengingat
data. Model Inggris bahkan tampil sangat baik sedangkan model Rusia cukup buruk. Set
data Rusia sejauh ini memiliki jumlah sampel paling sedikit, tetapi juga memiliki kelas
paling sedikit. Ini bisa diharapkan untuk menyeimbangkan hasilnya, tetapi jelas tidak. Ini
menyiratkan bahwa untuk beberapa alasan, teks Rusia lebih sulit untuk diklasifikasikan,
memiliki kata kunci yang kurang prediktif. Nilai C optimal untuk setiap model bahasa
cukup mirip tetapi tol memiliki beberapa varian.

Kesimpulan :

Penelitian ini dimaksudkan untuk memberikan jawaban atas pertanyaan: “Bagaimana membuat
sistem pembelajaran berkelanjutan untuk klasifikasi dokumen”. Itu dilakukan dengan memeriksa
elemen pembelajaran mesin dan NLP yang dapat digunakan untuk membuat sistem
pengklasifikasi teks untuk dokumen berbasis teks, platform dan layanan cloud yang mereka
tawarkan untuk pengembangan dan penerapan pembelajaran mesin, serta pengelolaan aplikasi
pembelajaran mesin. . Teknik dan teknologi yang berbeda diperiksa dalam tiga bagian utama dan
tingkat abstraksi yang berbeda: Latar Belakang, Arsitektur, dan Implementasi.

Latar belakang difokuskan pada pengenalan konsep inti dan teori. Ini menyajikan komponen
logis inti yang diperlukan untuk proyek dan konsep di baliknya. Algoritme klasifikasi
pembelajaran mesin yang disertakan ini, pemilihan dan evaluasi model, NLP, sumber daya dan
proses pembelajaran mesin di cloud, serta manajemen siklus hidup aplikasi pembelajaran mesin.
Sejumlah pilihan untuk setiap komponen diperiksa dan teorinya dikunjungi. Arsitektur pertama-
tama menyajikan kerangka kerja solusi yang ada yang dapat digunakan untuk membuat arsitektur
sistem yang dimaksud. Azure dipilih untuk proyek ini dan dipamerkan bagaimana layanannya
akan digunakan untuk mewujudkan sistem pembelajaran berkelanjutan untuk klasifikasi
dokumen, bersandar pada praktik dan referensi MLOps Microsoft. Implementasi menguraikan
proses penerapan arsitektur yang disajikan di bagian sebelumnya. Bagian ini bertujuan untuk
memberi pembaca gambaran langkah demi langkah tentang proses pengembangan layanan web
berbasis pembelajaran mesin, seperti Smart Ticketing.

Link Video : https://web.microsoftstream.com/video/5b508ae6-f3b0-4f79-abf0-af8dce40c332


Nama : Listiani Clara Rowa

Anda mungkin juga menyukai