Anda di halaman 1dari 10

JURNAL MEDIA INFORMATIKA BUDIDARMA

Volume 7, Nomor 1, Januari 2023, Page 107-116


ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409

Implementasi Deep Learning Menggunakan Metode You Only Look


Once untuk Mendeteksi Rokok
Ahmad Harun1,*, Mustakim1, Oktaf Brilian Kharisma2
1Sains dan Teknologi, Sistem Informasi, Universitas Islam Negeri Sultan Syarif Kasim Riau, Pekanbaru, Indonesia
2
Sains dan teknologi, Teknik Elektro, Universitas Islam Negeri Sultan Syarif Kasim Riau, Pekanbaru, Indonesia
Email: 1,*11850310375@students.uin-suska.ac.id, 2mustakim@uin-suska.ac.id, 3brilian@uin-suska.ac.id
Email Penulis Korespondensi: 11850310375@students.uin-suska.ac.id
Abstrak−Rokok merupakan hasil olahan dari produk tembakau yang penggunaanya dengan cara dibakar kemudian dihisap.
Aktivitas merokok banyak ditemui dalam kehidupan sehari-hari diantaranya pada prasarana umum. Pendekatan yang dilakukan
untuk mencegah aktivitas ini umumnya menggunakan informasi manual maupun campur tangan dari manusia. Dalam hal
pendekatan ini sering ditemui banyak permasalahan dan kegagalan karena sedikit tenaga kerja dan aturan yang mendukung.
Maka dari itu, penelitian ini disusun dengan tujuan dapat mendeteksi objek rokok secara realtime menggunakan metode You
Only Look Once (YOLO). YOLO yang berdasarkan deep learning sangat baik dalam mendeteksi objek, model ini
menghadirkan jaringan saraf konvolusi tunggal dalam menetapkan lokasi dan klasifikasi. Sehingga dalam penerapannya,
YOLO sangat cepat dalam mendeteksi dan mengenali objek. Penelitian ini melakukan percobaan pada training dataset dalam
menguji model YOLOv3, YOLOv3-Tiny dan YOLOv4. Hasil training terbaik didapatkan pada model YOLOv4 dengan
komposisi pembagian data 80% training dan 20% validation dengan presentase Mean Average Precision (mAP) sebesar 92,54%
dan F1-Score sebesar 0,89. Penelitian ini juga melakukan percobaan pada pengujian dalam mendeteksi rokok secara realtime,
dimana sistem dapat mendeteksi rokok sampai dengan jarak 4,5 meter, dan akurasi deteksi tertinggi didapatkan pada jarak 1
meter yaitu 99,03%.
Kata Kunci: CNN; Deep Learning; Deteksi Objek; Rokok; YOLO
Abstract−Cigarettes are processed products from tobacco products which are used by burning and then smoked. Smoking
activities are often found in everyday life, including in public infrastructure. The approach taken to prevent this activity
generally uses manual information or human intervention. In terms of this approach, there are often many problems and failures
due to the lack of manpower and supporting rules. Therefore, this study was structured with the aim of being able to detect
smoking objects in real time using the You Only Look Once (YOLO) method. YOLO which is based on deep learning is very
good at detecting objects, this model provides a single convolution neural network in assigning location and classification. So
that in its application, YOLO is very fast in detecting and recognizing objects. This study conducted experiments on the training
dataset in testing the YOLOv3, YOLOv3-Tiny and YOLOv4 models. The best training results were obtained in the YOLOv4
model with a composition of 80% training and 20% validation data sharing with a Mean Average Precision (mAP) of 92.54%
and an F1-Score of 0.89. This study also conducted experiments on testing to detect cigarettes in real time, where the system
can detect cigarettes up to a distance of 4.5 meters, and the highest detection accuracy is obtained at a distance of 1 meter,
namely 99.03%.
Keywords: Cigarette; CNN; Deep Learning; Object Detection; YOLO

1. PENDAHULUAN
Rokok merupakan hasil olahan dari produk tembakau yang penggunaanya dengan cara dibakar kemudian dihisap,
contohnya seperti rokok kretek, rokok putih, cerutu atau dalam bentuk lainnya yang mana asapnya mengandung
nikotin dan tar [1]. Aktivitas merokok biasanya ditemui pada berbagai tempat, diantaranya pada prasarana umum
yang terdapat informasi larangan merokok. Pendekatan yang dilakukan untuk mencegah aktivitas merokok di
prasarana umum biasanya menggunakan informasi manual maupun campur tangan dari manusia. Dalam hal
pendekatan ini sering ditemui banyak permasalahan dan kegagalan karena sedikit tenaga kerja dan aturan yang
mendukung [2]. Pendekatan ini membutuhkan banyak biaya dan tenaga kerja dalam penerapannya. Dari
permasalahan tersebut, penelitian ini akan mengimplementasikan salah satu metode dengan basis deep learning
yang mampu mendeteksi rokok secara realtime.
Deep learning telah hadir sebagai teknik yang sangat kuat untuk mempelajari objek secara otomatis dari
suatu data mentah, yang mana deep learning telah mendapat kemajuan yang cukup besar dalam mendeteksi objek
[3]. Penelitian yang dilakukan oleh Stephen Humphries dan kawan-kawan dalam menerapkan deep learning untuk
klasifikasi otomatis pola emphysema di CT memberikan hasil yang dapat ditafsirkan untuk dapat membantu
mengidentifikasi individu dari resiko kematian yang besar dan memberikan penilaian yang lebih sensitif dalam
mendeteksi jejak tingkat emphysema [4]. You Only Look Once (YOLO) merupakan suatu metode deep learning
yang popular digunakan dalam mendeteksi objek, karena model ini menggunakan jaringan saraf konvolusi yang
dijadikan sebagai pendekatan deep learning untuk mendeteksi wajah pada video [5]. Pendekatan YOLO yang
berdasarkan deep learning sangat baik dalam mendeteksi objek, model ini menghadirkan jaringan saraf konvolusi
tunggal dalam menetapkan lokasi dan klasifikasi [6].
Penelitian yang dilakukan oleh Liao dan Zou pada tahun 2020 mengusulkan implementasi deep learning
dalam mendeteksi target merokok menggunakan You Only Look Once v3 (Yolov3) karena memiliki hasil yang
baik. Jaringan Yolo V3 yang digunakan mampu mendeteksi target dengan ukuran yang lebih kecil, yaitu puntung
rokok. Dengan menggunakan model DarkNet53 pada yolov3 untuk mendeteksi rokok mampu mendapatkan mAP
Ahmad Harun, Copyright © 2023, MIB, Page 107
Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
sebesar 0.76 [7]. Pada tahun 2020, yolov4 telah dikembangkan oleh Alexey dan kawan-kawan dimana dibanding
yolov3, yolov4 telah ditingkatkan Average Precision (AP) sebesar 10 % dan Frame Per Second (FPS) sebesar 12
% [8] sehingga dapat bekerja lebih cepat dan lebih baik.
Pada penelitian sebelumnya tentang mendeteksi objek, beberapa penelitian yang memiliki keterkaitan
dengan penelitian yang sedang di lakukan. Penelitian yang dilakukan oleh Zhao dan Ren yaitu melakukan deteksi
objek kecil, dimana objek yang di deteksi adalah pesawat kecil dalam penginderaan jauh. Pada penelitian tersebut
membandingkan rata-rata presisi dan waktu deteksi dari YOLOv3, Faster R-CNN dan SSD, dimana YOLOv3
mendapatkan rata-rata presisi tertinggi yaitu 0.925 dan waktu deteksi yang rendah yaitu 0.023 detik [9]. YOLO
juga digunakan dalam mendeteksi objek kecil lainnya, yaitu rokok. Penelitian yang dilakukan Pundhir dan kawan-
kawan yaitu untuk melakukan klasifikasi pemakai rokok menggunakan deep learning dengan modul Yolo-V3,
dari penelitian tersebut didapatkan akurasi klasifikasinya mencapai 96.74% [10]. Kemudian pada Penelitian yang
dilakukan oleh Shuo Wang yaitu dengan mengevaluasi YOLOv3, YOLOv3-tiny, YOLOv3-SPP3, YOLOv4, dan
YOLOv4-tiny dalam mendeteksi objek kecil secara real time yaitu objek UAV. Pada penelitian tersebut Yolov4
mendapatkan mAP sebesar 87,48 % dimana lebih tinggi 14,2 % dari Yolov3 [11].
Berdasarkan uraian tersebut, penelitian ini akan mengimplementasikan metode You Only Look Once
(YOLO) untuk mendeteksi objek kecil yaitu puntung rokok secara realtime. penentuan jarak kamera dengan objek
puntung rokok akan diperhitungkan dalam penelitian ini.

2. METODOLOGI PENELITIAN
Adapun metodelogi penelitian dalam penelitian ini secara garis besar terdiri atas 7 tahapan yang dilakukan. Berikut
ini merupakan tahapan penelitian yang dapat dilihat pada gambar 1.

Gambar 1. Metodologi Penelitian


Tahapan Pertama pada penelitian ini adalah melakukan pengumpulan data. Proses pengumpulan dataset
dibagi menjadi 2. Pertama, gambar diambil dari video yang dibuat oleh peneliti dan di ekstrak menjadi gambar.
Kedua, gambar di ambil dari pencarian Google dengan keyword pencariannya adalah person drink water, people
with pen, people cough, indonesian people, african people dan indian people. Dari pengumpulan tersebut
didapatkan data berjumlah 2001 gambar, dimana dibagi pada 2 kelas yaitu, rokok dan bukan rokok. Berikut
merupakan rincian dataset yang terkumpul:
Tabel 1. Komposisi Dataset
Dataset Jumlah
Rokok 1169
Bukan Rokok 832
Ahmad Harun, Copyright © 2023, MIB, Page 108
Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
Selanjutnya dilakukan preprocessing data, pada tahap ini dilakukan anotasi citra dataset menggunakan
aplikasi yolo mark.
Data yang sudah melalui tahapan preprocessing data selanjutnya dilakukan tahap untuk konfigurasi YOLO.
Pada penelitian ini terdapat 3 model YOLO yang digunakan, yaitu YOLOv3, YOLOv3-Tiny dan YOLOv4.
Penggunaan 3 model ini dimaksudkan untuk mencari versi metode YOLO terbaik dalam mendeteksi rokok.
Berikut beberapa konfigurasi YOLO yang dibuat:
a. Batch = 64
b. Subdivisions = 16
c. Width = 416
d. Height = 416
e. Max_batches = 6000
f. Steps = 4800, 5400
g. Classes = 2
h. Filters = 21
Setelah tahap konfigurasi selesai, selanjutnya dilakukan pembagian data untuk data training dan validation.
Strategi yang dilakukan yaitu dengan melakukan percobaan pembagian data untuk training dan validation 50:50,
60:40, 70:30, 80:20 dan 90:10 [12]. Strategi ini dilakukan karena pada saat mendeteksi objek rokok secara realtime
dibutuhkan model training yang optimal, oleh karena itu diperlukan pengujian terhadap model yang akan
digunakan.
Tahapan selanjutnya yaitu dilakukan proses training dataset menggunakan google colab pro. Pada tahap ini
terdapat 15 kali percobaan training, dimana masing-masing model yang digunakan yaitu, YOLOv3, YOLOv3-
Tiny dan YOLOv4 menggunakan strategi pada tahap pembagian data.
Dataset yang sudah di training menggunakan google colab pro, selanjutnya dilakukan tahap untuk analisa
dan hasil dari proses training. Tahap ini adalah melihat hasil terbaik dari tahap training. Acuan terbaik dinilai dari
Mean Average Precision (mAP) dan nilai F1-Score, semakin tinggi presentase mAP dan nilai F1-Score nya , maka
model tersebut akan di pakai pada proses selanjutnya. Jika sudah didapatkan model yang terbaik.
Tahap terakhir yaitu dilakukan pengujian dari tahap analisa dan hasil yang di dapat. Implementasi pengujian
pada penelitian ini dilakukan di dalam ruangan. Strategi yang dilakukan yaitu mengatur jarak antara kamera
dengan objek. Pengujian dilakukan sebanyak 9 kali dimulai dari jarak 1 meter, 1.5 meter, 2 meter, 2.5 meter, 3
meter, 3.5 meter, 4 meter, 4.5 meter dan 5 meter. Pada tahap ini juga dilakukan penilaian akurasi deteksi dari
pengujian yang dilakukan.
2.1. You Only Look Once (YOLO)
Metode YOLO pertama kali diperkenalkan oleh Joseph Redmon dan kawan-kawan pada tahun 2016 pada paper
yang berjudul You Only Look Once: Unified, Real-Time Object Detection. You Only Look Once (YOLO) menjadi
salah satu metode yang cukup populer dalam mempelajari dan mengenali objek [13]. YOLO merupakan salah satu
pendekatan deep learning untuk mendeteksi objek secara realtime dengan basis Convolutional Neural Network
(CNN). CNN sendiri merupakan pengembangan dari Multilayer Perceptron (MLP) yang mampu mengolah data
dua dimensi berupa citra [14]. Dalam proses mendeteksi objek pada sebuah citra, YOLO menggunakan
pendekatan jaringan konvolusi tunggal pada keseluruhan citra untuk memprediksi bounding box dan label kelas
pada setiap bounding box [15].

Gambar 2. Sistem Deteksi YOLO [15].


Pada Gambar 2, proses yang terjadi adalah citra akan di proses dengan mengubah ukuran menjadi 448 x
448, selanjutnya proses yang terjadi adalah non-max suppression yaitu untuk menghasilkan bounding-box dan
menetukan label dari setiap objek yang terdeteksi [16].
2.2. You Only Look Once v3 (YOLOv3)
You Only Look Once v3 (YOLOv3) merupakan pengembangan dari versi sebelumnya yaitu YOLOv2. YOLOv3
menggunakan darknet53 sebagai ekstraksi fitur. Ini merupakan model jaringan baru dengan menggunakan 53
lapisan dalam melakukan ekstraksi fitur. Pada jaringan ini menggunakan secara berturut-turut 3 × 3 dan 1×1
lapisan konvolusi [17].
2.3. You Only Look Once v3-Tiny (YOLOv3-Tiny)
You Only Look Once v3-tiny merupakan versi jaringan yang lebih ringan dari YOLOv3. Dimana terdiri atas 13
lapisan konvolusi, 6 max pooling layer 1 up sampling layer, 1 cascading layer dan 2 output [18]. YOLOv3-tiny
dapat digunakan untuk identifikasi dan klasifikasi objek. YOLOv3-tiny membagi citra menjadi grid cell 13x13
Ahmad Harun, Copyright © 2023, MIB, Page 109
Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
dan 26x26, dimana pada setiap grid cell memiliki 3 kotak jangkar dan setiap kota jangkar memiliki 20 skor kelas
dan 4 titik koordinat pembatas yang berbentuk kotak [19].
2.4. You Only Look Once v4 (YOLOv4)
You Only Look Once v4 (YOLOv4) merupakan pengembangan dari versi sebelumnya yaitu YOLOv3. YOLOv4
memiliki keunggulan dibanding YOLOv3 yaitu telah ditingkatkan Average Precision (AP) dan Frame Per Second
(FPS) sebesar 10 % dan 12 % [8]. YOLOv4 didasarkan atas regresi yang memiliki karakterisitik dari YOLOv1,
YOLOv2 dan YOLOv3 [20]. Dalam pengembangannya YOLOv4 masih menggunakan Darknet-53, lebih tepat
nya CSPDarknet-53 atau CSPNet yang merupakan Backbone baru dimana dapat meningkatkan learning capability
dari CNN [15].
2.5. Perhitungan Performa parameter
Mean Average Precision (mAP) adalah metrik yang digunakan untuk mengukur evaluasi dari sebuah model untuk
mendeteksi objek. Mean Average Precision bernilai antara 0 sampai 100, semakin tinggi nilainya maka semakin
bagus. Nilai mAP adalah nilai rata-rata dari Average Precision (AP) pada setiap kelas yang ada pada setiap model
yang di uji [21]. Untuk mengetahui nilai AP dari suatu kelas, perlu diketahui terlebih dahulu nilai precision dan
recall yang dapat dihitung pada persamaan 1 dan persamaan 2.
TP
Precision = (1)
TP+FP
TP
Recall = (2)
TP+FN

Setelah mendapatkan nilai precision dan recall, plot nilai precision terhadap recall untuk melihat pola berbentuk
zig-zag. Sebelum menghitung AP, hasil plot berbentuk zig-zag akan dihaluskan, dimana nilai precision (p) pada
setiap recall (r) diganti dengan nilai precision maksimum pada recall selanjutnya (r’) [22]. Perhitungan tersebut
dapat dihitung dengan persamaan berikut:
pinter (rn+1 ) = max p(r ′ ); r ′ ≥ rn+1 (3)
Nilai AP dihasilkan dengan menghitung area berbentuk kurva pada nilai recalls, yaitu ketika nilai precision
maksimum jatuh. Perhitungan nilai AP dapat dihitung dengan persamaan berikut:
AP = ∑(rn+1 − rn ) pinter (rn+1 ) (4)
Kemudian untuk menghitung nilai mAP dapat dihitung menggunakan persamaan berikut:
N
AP(i)
mAP = ∑ x 100% (5)
i=1 N

Dimana AP adalah Average Precision dan N adalah banyak kelas yang dilatih. Selanjutnya, dalam menghitung
performa cukup sulit membandingkan model dengan nilai precision yang tinggi dan nilai recall yang rendah
maupun sebaliknya. Maka dari itu dibutuhkan perhitungan performa parameter yang lain untuk mendapatkan nilai
harmonik antaran precision dan recall yaitu F1-Score [23]. F1-Score adalah perbandingan dari rata-rata nilai dari
precision dan recall [24]. Perhitungan nilai F1-Score dapat dihitung sesuai dengan persamaan 6.
Precision x Recall
F1-Score = 2 x (6)
Precision +Recall

3. HASIL DAN PEMBAHASAN


Pada penelitian ini, tahap training dilakukan menggunakan google colab pro sedangkan pengujian dilakukan
menggunakan laptop dengan spesifikasi pada table 2, spesifikasi kamera HP pada tabel 3 dan spesifikasi software
pada table 4.
Tabel 2.Spesifikasi Laptop
Fitur Spesifikasi
Processor Intel i3-6006U
RAM 4 GB
Penyimpanan SSD 256 GB
VGA NVIDIA GeForce GT920MX
Sistem Operasi Windows 10
Tabel 3. Spesifikasi Kamera HP
Fitur Spesifikasi
Kamera 19 Mega Pixel

Ahmad Harun, Copyright © 2023, MIB, Page 110


Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
Tabel 4. Spesifikasi Software
Aspek Spesifikasi
Bahasa Pemrogramman Python versi 3.9.5
Software Training Google Colab Pro
Text Editor Microsoft Visual Studio Code
Software Pengujian Command Prompt
3.1 Skenario Training Dataset
Hasil dari training dataset akan sangat mempengaruhi keberhasilan sistem dalam mendeteksi objek. Data latih dan
data validasi sebagian dibuat oleh peneliti dan Sebagian lagi diambil dari pencarian google. Dari percobaan
training pembagian data yang menggunakan model YOLOv3, YOLOv3-Tiny dan YOLOv4, didapatkan hasil
training yang dapat dilihat perbedaanya dari persentase terbaik Mean Average Precision (mAP), precision, recall
dan F1-Score dari 15 kali percobaan training. Hasil Training tersebut dapat dilihat pada tabel 5.
Tabel 5. Hasil Training
Model Pembagian Data Best mAP Precision Recall F1-Score
Yolov3 90:10 89.63% 0.85 0.88 0.87
80:20 89.97% 0.86 0.86 0.86
70:30 88.97% 0.87 0.86 0.86
60:40 86.69% 0.88 0.83 0.85
50:50 86.22% 0.86 0.84 0.85
Yolov3-tiny 90:10 82.08% 0.82 0.75 0.78
80:20 79.69% 0.79 0.75 0.77
70:30 80.17% 0.78 0.77 0.78
60:40 76.15% 0.80 0.72 0.75
50:50 75.42% 0.76 0.72 0.74
Yolov4 90:10 90.92% 0.85 0.90 0.87
80:20 92.54% 0.86 0.92 0.89
70:30 91.86% 0.88 0.89 0.88
60:40 89.32% 0.87 0.87 0.87
50:50 88.95% 0.86 0.86 0.86
Nilai presentase mAP, precision, recall dan F1-Score didapat dari perhitungan yang sesuai pada persamaan
1 sampai dengan persamaan 6. Perhitungan ini dilakukan oleh YOLO saat proses validasi training dataset.
Penelitian ini menggunakan konfigurasi max_batches = 6000. Pada saat mencapai 1000 batches training dan setiap
100 batches selanjutnya, YOLO akan menghitung nilai mAP dalam bentuk grafik presentase. Ketika proses
training selesai, YOLO akan menampilkan output berupa grafik presentase dari seluruh perhitungan nilai mAP.
Nilai mAP tertinggi dijadikan sebagai best mAP pada setiap percobaan training yang dilakukan. Setelah mendapat
best mAP pada masing-masing percobaan training, selanjutnya dilakukan evaluasi performa dari nilai precision,
recall dan F1-Score dengan tujuan untuk mendapatkan model yang paling optimal. Dari hasil training dapat
diketahui bahwa model YOLOv4 dengan pembagian data 80% training dan 20% validation adalah model terbaik
karena mendapatkan nilai mAP dan F1-Score yang paling tinggi, yaitu 92.54% dan 0,89.
3.2 Skenario Pengujian Jarak
Percobaan dilakukan pada beberapa skenario, yaitu dengan mengatur jarak antara posisi kamera dengan objek
penelitian yaitu puntung rokok. Percobaan dilakukan di dalam ruangan dan dilakukan sebanyak 9 kali, dimulai
dari jarak 1 meter, 1.5 meter, 2 meter, 2.5 meter, 3 meter, 3.5 meter, 4 meter, 4.5 meter dan 5 meter. Ketinggian
kamera di atur pada ketinggian 1.5 meter. Alasan peneliti mengambil pada jarak tersebut adalah dikarenakan
puntung rokok yang berukuran kecil, sehingga pengujian dilakukan setiap 50 cm dimulai pada jarak 1 meter hingga
5 meter. Pengujian ini diharapkan dapat menghasilkan jarak yang cukup efektif dalam mendeteksi rokok.
3.3 Hasil Pengujian Jarak
Pengujian jarak diambil secara langsung oleh peneliti. Sistem akan menampilkan label rokok dan score secara
realtime apabila memenuhi nilai standar dari confidence threshold yaitu 0.25. Berikut merupakan hasil dari
pengujian pada sistem deteksi rokok yang dilakukan:
a. Jarak 1 Meter
Hasil pengujian yang dilakukan pada gambar 3, menghasilkan bahwa pada jarak 1 meter, sistem dapat mendeteksi
rokok dengan tingkat akurasi deteksi tertinggi yaitu 99.03%. Nilai akurasi ini didapat pada objek Rokok yang
terdeteksi di Orang 4 dengan score yang didapat yaitu 99,03. Akurasi pengujian deteksi pada gambar 3 dapat
dilihat pada gambar 4.

Ahmad Harun, Copyright © 2023, MIB, Page 111


Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409

Orang 1

Orang 2 Orang 3 Orang 4

Gambar 3. Pengujian Jarak 1 Meter

Percobaan Pada Jarak 1


Meter
89,12% 79,13% 97,08% 99,03%
100% Orang 1
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 2

Gambar 4. Akurasi Jarak 1 Meter


Dari grafik pengujian pada gambar 4, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi
89,12%, Orang 2 79,13%, Orang 3 97,08% dan Orang 4 99,03%.
b. Jarak 1.5 Meter
Hasil pengujian yang dilakukan pada gambar 5, menghasilkan bahwa pada jarak 1.5 meter, sistem dapat
mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 91.69%. Nilai akurasi ini didapat pada objek
Rokok yang terdeteksi di Orang 1 dengan score yang didapat yaitu 91,69.

Percobaan Pada Jarak


1.5 Meter
91,69% 75,57% 57,06% 89,98%
100% Orang 1
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 2

Gambar 5. Akurasi Jarak 1.5 Meter


Dari grafik pengujian pada gambar 5, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi
deteksi 91,69%, Orang 2 75,57%, Orang 3 57,06% dan Orang 4 89,98%.
c. Jarak 2 Meter
Hasil pengujian yang dilakukan pada gambar 6, menghasilkan bahwa pada jarak 2 meter, sistem dapat mendeteksi
rokok dengan tingkat akurasi deteksi tertinggi yaitu 91.38% . Nilai akurasi ini didapat pada objek Rokok yang
terdeteksi di Orang 3 dengan score yang didapat yaitu 91,38.

Percobaan Pada Jarak


2 Meter
91,38%
100% 72,94%
54,83% 65,52% Orang 1
Orang 2
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 3

Gambar 6. Jarak 2 Meter


Dari grafik pengujian pada gambar 6, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi
54,83%, Orang 2 65,52%, Orang 3 91,38% dan Orang 4 72,94%.

Ahmad Harun, Copyright © 2023, MIB, Page 112


Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
d. Jarak 2.5 Meter
Hasil pengujian yang dilakukan pada gambar 7, menghasilkan bahwa pada jarak 2.5 meter, sistem dapat
mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 78.93%. Nilai akurasi ini didapat pada objek
Rokok yang terdeteksi di Orang 3 dengan score yang didapat yaitu 78,93.

Percobaan Pada Jarak 2.5


Meter
100% 69,69% 78,93%
40,38% 40,95% Orang 1
Orang 2
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 3

Gambar 7. Akurasi Jarak 2.5 Meter


Dari grafik pengujian pada gambar 7, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi
69,69%, Orang 2 40,38%, Orang 3 78,93% dan Orang 4 40,95%.
e. Jarak 3 Meter
Hasil pengujian yang dilakukan pada gambar 8, menghasilkan bahwa pada jarak 3 meter, sistem dapat mendeteksi
rokok dengan tingkat akurasi deteksi tertinggi yaitu 73.38%. Nilai akurasi ini didapat pada objek Rokok yang
terdeteksi di Orang 4 dengan score yang didapat yaitu 73,38.

Percobaan Pada Jarak 3


Meter
100% 72,39% 73,38% Orang 1
28,03%
0,00%
Orang 2
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 3

Gambar 8. Akurasi Jarak 3 Meter


Dari grafik pengujian pada gambar 8, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi
72,39%, Orang 2 28,03%, Orang 3 tidak terdeteksi dan Orang 4 73,38%.
f. Jarak 3.5 Meter
Hasil pengujian yang dilakukan pada gambar 9, menghasilkan bahwa pada jarak 3.5 meter, sistem dapat
mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 59.50%. Nilai akurasi ini didapat pada objek
Rokok yang terdeteksi di Orang 1 dengan score yang didapat yaitu 59,50.

Percobaan Pada Jarak 3.5


Meter
59,50% 47,27%
100% 0,00% 0,00% Orang 1
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 2

Gambar 9. Akurasi Jarak 3.5 Meter


Dari grafik pengujian pada gambar 9, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi
59,50%, Orang 2 tidak terdeteksi, Orang 3 47,27% dan Orang 4 tidak terdeteksi.
g. Jarak 4 Meter
Hasil pengujian yang dilakukan pada gambar 10, menghasilkan bahwa pada jarak 4 meter, sistem dapat mendeteksi
rokok dengan tingkat akurasi deteksi tertinggi yaitu 59.47%. Nilai akurasi ini didapat pada objek Rokok yang
terdeteksi di Orang 3 dengan score yang didapat yaitu 59,47.

Percobaan Pada Jarak 4…


100% 44,73% 59,47% Orang 1
0,00% 0,00%
0% Orang 2
Orang 1 Orang 2 Orang 3 Orang 4 Orang 3

Gambar 10. Akurasi Jarak 4 Meter


Ahmad Harun, Copyright © 2023, MIB, Page 113
Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
Dari grafik pengujian pada gambar 10, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi
44,73%, Orang 2 tidak terdeteksi, Orang 3 59,47% dan Orang 4 tidak terdeteksi.
h. Jarak 4.5 Meter
Hasil pengujian yang dilakukan pada gambar 11. Menghasilkan bahwa pada jarak 4.5 meter, sistem dapat
mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 59.41%. Nilai akurasi ini didapat pada objek
Rokok yang terdeteksi di Orang 1 dengan score yang didapat yaitu 59,41.

Percobaan Pada…
59,41%
100% 0,00% 0,00% 0,00% Orang 1
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 2

Gambar 11. Akurasi Jarak 4.5 Meter


Dari grafik pengujian pada gambar 11, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi
59,41%, Orang 2 tidak terdeteksi, Orang 3 tidak terdeteksi dan Orang 4 tidak terdeteksi.
i. Jarak 5 Meter
Hasil pengujian yang dilakukan pada gambar 12. Menghasilkan bahwa pada jarak 5 meter, sistem sama sekali
tidak dapat mendeteksi rokok. Akurasi pada gambar 12 dapat dilihat pada gambar 13.

Orang 1

Orang 4
Orang 2 Orang 3

Gambar 12. Pengujian Jarak 5 Meter

Percobaan Pada Jarak 5


Meter
100% 0,00% 0,00% 0,00% 0,00% Orang 1
0%
Orang 1 Orang 2 Orang 3 Orang 4 Orang 2

Gambar 13. Akurasi Jarak 5 Meter


Dari grafik pengujian pada gambar 13, sistem tidak dapat mendeteksi objek rokok pada Orang 1, Orang 2,
Orang 3 dan Orang 4. Sehingga akurasi yang di dapat adalah 0,00%.
3.4 Perbandingan Akurasi
Percobaan pengujian untuk mendeteksi rokok yang dilakukan dengan skenario pembagian jarak yang di mulai
pada jarak 1 meter sampai dengan jarak 5 meter. Didapatkan hasil perbandingan akurasi tertinggi dari masing-
masing pengujian jarak yang dilakukan. Perbandingan akurasi pada jarak pengujian yang dilakukan dapat dilihat
pada gambar 14.

Perbandingan Akurasi
99,03%91,69%91,38%
100,00% 78,93%73,38%
80,00% 59,50%59,47%59,41%
60,00%
40,00%
20,00% 0,00%
0,00%
1 1.5 2 2.5 3 3.5 4 4.5 5
Meter Meter Meter Meter Meter Meter Meter Meter Meter

Gambar 14. Perbandingan Akurasi


Ahmad Harun, Copyright © 2023, MIB, Page 114
Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
Dari grafik perbandingan akurasi pada gambar 14, sistem dapat mendeteksi objek rokok dengan tingkat
akurasi deteksi tertinggi yang dimulai pada jarak 1meter yaitu 99,03%, jarak 1,5 meter yaitu 91,69%, jarak 2 meter
yaitu 91,38%, jarak 2,5 meter yaitu 78,93%, jarak 3 meter yaitu 73,38%, jarak 3,5 meter yaitu 59,50%, jarak 4
meter yaitu 59,47%, jarak 4,5 meter yaitu 59,41% dan pada jarak 5 meter sistem tidak dapat mendeteksi objek
rokok. Dari perbandingan tersebut, didapatkan hasil bahwa sistem dapat mendeteksi rokok dengan tingkat akurasi
deteksi tertinggi pada jarak 1meter dengan persentase 99,03% dan pada jarak 5 meter sistem sama sekali tidak
dapat mendeteksi objek rokok.

4. KESIMPULAN
Berdasarkan penelitian yang dilakukan, dapat ditarik kesimpulan bahwa model terbaik dari tahap training dataset
adalah YOLOv4 dengan pembagian data 80% training dan 20% validation dimana menghasilkan presentase
tertingi Mean Average Precision (mAP) yaitu 92.54% dan F1-Score 0.89. Dari pengujian sistem pendeteksi rokok
yang dilakukan, sistem dapat mendeteksi rokok sampai pada jarak 4.5 meter, dan akurasi deteksi tertinggi
didapatkan pada jarak 1 meter yaitu 99.03%, serta tidak dapat mendeteksi rokok sama sekali pada jarak 5 meter.

UCAPAN TERIMAKASIH
Terima kasih kepada seluruh stakeholder Universitas Abdurrab yang telah memberikan izin dan memberikan
arahan dalam penelitian ini

REFERENCES
[1] E. Nuraeni, I. Yoyoh, E. Wibisana, and D. Mardiana, “Hubungan Tingkat Pengetahuan Dengan Peilaku Merokok Di
SMK Sasmita Jaya I Pamulung,” J. Kesehat. Masy., vol. 6, no. 2, pp. 2–7, 2021.
[2] L. Arief, A. Z. Tantowi, N. P. Novani, and T. A. Sundara, “Implementation of YOLO and smoke sensor for automating
public service announcement of cigarette’s hazard in public facilities,” 2020 Int. Conf. Inf. Technol. Syst. Innov. ICITSI
2020 - Proc., pp. 101–107, 2020, doi: 10.1109/ICITSI50517.2020.9264972.
[3] C. B. Murthy, M. F. Hashmi, N. D. Bokde, and Z. W. Geem, “Investigations of object detection in images/videos using
various deep learning techniques and embedded platforms-A comprehensive review,” Appl. Sci., vol. 10, no. 9, 2020,
doi: 10.3390/app10093280.
[4] S. M. Humphries et al., “Deep learning enables automatic classification of emphysema pattern at CT,” Radiology, vol.
294, no. 2, pp. 434–444, 2020, doi: 10.1148/radiol.2019191022.
[5] D. Garg, P. Goel, S. Pandya, A. Ganatra, and K. Kotecha, “A Deep Learning Approach for Face Detection using YOLO,”
Proc. 5th Int. Conf. Trends Electron. Informatics, ICOEI 2021, pp. 760–764, 2018, doi:
10.1109/ICOEI51242.2021.9452896.
[6] J. Tao, H. Wang, X. Zhang, X. Li, and H. Yang, “An object detection system based on YOLO in traffic scene,” Proc.
2017 6th Int. Conf. Comput. Sci. Netw. Technol. ICCSNT 2017, vol. 2018-Janua, pp. 315–319, 2018, doi:
10.1109/ICCSNT.2017.8343709.
[7] J. Liao and J. Zou, “Smoking target detection based on Yolo V3,” in Proceedings - 2020 5th International Conference on
Mechanical, Control and Computer Engineering, ICMCCE 2020, Dec. 2020, pp. 2241–2244, doi:
10.1109/ICMCCE51767.2020.00486.
[8] A. Bochkovskiy, C.-Y. Wang, and H.-Y. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection,” 2020,
[Online]. Available: http://arxiv.org/abs/2004.10934.
[9] K. Zhao and X. Ren, “Small Aircraft Detection in Remote Sensing Images Based on YOLOv3,” IOP Conf. Ser. Mater.
Sci. Eng., vol. 533, no. 1, 2019, doi: 10.1088/1757-899X/533/1/012056.
[10] A. Pundhir, D. Verma, P. Kumar, and B. Raman, “Region extraction based approach for cigarette usage classification
using deep learning,” 2021, [Online]. Available: http://arxiv.org/abs/2103.12523.
[11] S. Wang, “Research towards Yolo-Series Algorithms: Comparison and Analysis of Object Detection Models for Real-
Time UAV Applications,” J. Phys. Conf. Ser., vol. 1948, no. 1, 2021, doi: 10.1088/1742-6596/1948/1/012021.
[12] D. S. Aulia, C. Setianingsih, and M. Kallista, “Deteksi Tanda Kehidupan Pada Korban Bencana Alam Dengan Algoritma
Yolo Dan Open Pose Life Sign Detector Using You Only Look Once ( Yolo ) and Open Pose,” e-Proceeding Eng., vol.
8, no. 5, pp. 6162–6174, 2021.
[13] M. Muhaimin and T. W. Sen, “Real-Time Detection of Face Masked and Face Shield Using YOLO Algorithm with Pre-
Trained Model and Darknet,” Indones. J. Artif. Intell. Data Min., vol. 4, no. 2, pp. 97–107, 2021.
[14] Y. N. Fuadah, S. Saidah, N. K. Sy, R. Magdalena, and I. Da’wan Ubaidullah, “Glaucoma Classification Based on Fundus
Images Processing With Convolutional Neural Network,” J. Tek. Inform., vol. 3, no. 3, pp. 717–722, 2022, [Online].
Available: https://doi.org/10.20884/1.jutif.2022.3.3.276.
[15] T. A. A. H. Kusuma, K. Usman, and S. Saidah, “PEOPLE COUNTING FOR PUBLIC TRANSPORTATIONS USING
YOU ONLY LOOK ONCE METHOD,” J. Tek. Inform., vol. 2, no. 1, pp. 57–66, 2021, doi: 10.20884/1.jutif.2021.2.2.77.
[16] M. D. Anggraini and H. Al Fatta, “SOCIAL DISTANCING DETECTION FINDING OPTIMAL ANGLE WITH YOLO
V3 DETEKSI SOCIAL DISTANCING MENCARI SUDUT OPTIMAL DENGAN METODE DEEP LEARNING
YOLO V3,” J. Tek. Inform., vol. 3, no. 5, pp. 1449–1454, 2022.
[17] J. Redmon and A. Farhadi, “YOLOv3: An Incremental Improvement,” 2018, [Online]. Available:
http://arxiv.org/abs/1804.02767.
[18] H. Gong, H. Li, K. Xu, and Y. Zhang, “Object Detection Based on Improved YOLOv3-tiny,” Proc. - 2019 Chinese

Ahmad Harun, Copyright © 2023, MIB, Page 115


Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023
JURNAL MEDIA INFORMATIKA BUDIDARMA
Volume 7, Nomor 1, Januari 2023, Page 107-116
ISSN 2614-5278 (media cetak), ISSN 2548-8368 (media online)
Available Online at https://ejurnal.stmik-budidarma.ac.id/index.php/mib
DOI: 10.30865/mib.v7i1.5409
Autom. Congr. CAC 2019, no. 61421070104, pp. 3240–3245, 2019, doi: 10.1109/CAC48633.2019.8996750.
[19] A. S. Riyadi, I. P. Wardhani, M. S. Wulandari, and S. Widayati, “Perbandingan Metode ResNet, YoloV3, dan
TinyYoloV3 pada Deteksi Citra dengan Pemrograman Python,” Petir, vol. 15, no. 1, pp. 135–144, 2022, doi:
10.33322/petir.v15i1.1302.
[20] J. Yu and W. Zhang, “Face Mask Wearing Detection Algorithm Based on,” Sensors, vol. 21, p. 3263, 2021.
[21] H. R. Yudistira and Lina, “HUMAN ACTIVITY RECOGNATION DARI REKAMAN VIDEO PENGAWAS DENGAN
METODE YOLO,” J. Ilmu Komput. dan Sist. Inf., vol. 10, pp. 1–5, 2022.
[22] H. Hammam, A. Asyhar1, S. A. Wibowo2, and G. Budiman3, “Implementasi Dan Analisis Performansi Metode You
Only Look Once (Yolo) Sebagai Sensor Pornografi Pada Video Implementation and Performance Analysis of You Only
Look Once (Yolo) Method As Porn Censorship in Video,” e-Proceeding Eng., vol. 7, no. 2, pp. 3631–3638, 2020.
[23] N. K. C. PRATIWI, N. IBRAHIM, Y. N. FU’ADAH, and S. RIZAL, “Deteksi Parasit Plasmodium pada Citra
Mikroskopis Hapusan Darah dengan Metode Deep Learning,” ELKOMIKA J. Tek. Energi Elektr. Tek. Telekomun. Tek.
Elektron., vol. 9, no. 2, p. 306, 2021, doi: 10.26760/elkomika.v9i2.306.
[24] B. Oxy, E. Andriyansyah, and I. Hariyanti, “IMPLEMENTASI RECURRENT NEURAL NETWORK UNTUK
DETEKSI DETAK Keywords : Heartbeat , Application , Facial Digital Image Processing , Recurrent neural network,”
vol. 17, pp. 11–18, 2022.

Ahmad Harun, Copyright © 2023, MIB, Page 116


Submitted: 27/12/2022; Accepted: 08/01/2023; Published: 28/01/2023

Anda mungkin juga menyukai