Anda di halaman 1dari 10

Vol. 11, No.

2 Juni 2023 P-ISSN : 2088-2130


E-ISSN : 2502-4884

APLIKASI PENGENALAN ABJAD SISTEM ISYARAT


BAHASA INDONESIA (SIBI) DENGAN ALGORITMA
YOLOv5
MOBILE APPLICATION ALPHABET RECOGNITION
OF INDONESIAN LANGUAGE SIGN SYSTEM
(SIBI) USING YOLOv5 ALGORITHM
Dimas Permana1), Joko Sutopo2),
1,2
Prodi Informatika, Fakultas Sains dan Teknologi, Universitas Teknologi Yogyakarta
Jl. Siliwangi (Ringroad Utara), Jombor, Sleman, D.I. Yogyakarta 55285
E-mail : 1* dimaspermana382@gmail.com, 2jksutopo@uty.ac.id
*Corresponding author email.

ABSTRAK
Penelitian ini bertujuan untuk mengembangkan platform praktis pengenalan abjad Sistem Isyarat
Bahasa Indonesia (SIBI) sebagai media pembelajaran bahasa isyarat yang efektif. Metode yang
digunakan adalah algoritma YOLOv5 untuk mendeteksi isyarat bahasa isyarat SIBI. Pengujian
dilakukan dalam dua tahap, pertama untuk menguji antarmuka aplikasi yang berhasil menampilkan
enam halaman antarmuka pengguna dengan baik. Kedua, pengujian manual dilakukan untuk
mendeteksi gerakan bahasa isyarat SIBI dengan membandingkan kelas-kelas aktual yang terdiri dari
26 kelas. Pada pengujian tersebut, beberapa kelas seperti 'A' dan 'E' memiliki akurasi deteksi yang
rendah karena memiliki gerakan yang hampir sama dengan kelas 'S' atau 'A'. Kelas 'D' juga memiliki
akurasi yang rendah karena membutuhkan variasi posisi yang lebih kompleks. Kelas 'J' memiliki
gestur yang cukup rumit karena ada gerakan lanjutan yang dilakukan, sehingga memiliki akurasi
yang cukup rendah. Hasil deteksi real-time menggunakan kamera ponsel menunjukkan akurasi
sebesar 77% (0.77), secara keseluruhan hasil pengujian mencapai akurasi yang cukup baik.
Diharapkan dengan adanya platform ini dapat mempermudah dan memperlancar komunikasi antara
masyarakat umum dengan teman tuli.
Kata kunci : Bahasa Isyarat, Deteksi Objek, Komunikasi Tuli, Sibi, Yolo.
ABSTRACT
This research aims to develop a practical platform of Indonesian Sign Language System (SIBI)
alphabet recognition as an effective sign language learning media. The method used is YOLOv5
algorithm based on convolutional neural network (CNN) to detect SIBI sign language gestures.
Testing is done in two stages, first to test the application interface which successfully displays 6 user
interface pages properly. Secondly, manual testing was carried out to detect SIBI sign language
gestures by comparing the actual classes consisting of 26 classes. In the test, some classes such as
'A' and 'E' had low detection accuracy due to almost the same gesture as class 'S' or 'A'. Class 'D'
also has low accuracy as it requires more complex position variations. Class 'J' is difficult to detect
due to the advanced movements required. The results of real-time detection using a cell phone
camera showed an accuracy of 77% (0.77), overall the test results achieved a fairly good accuracy.
It is hoped that this platform can facilitate easy and smooth communication between the general
public and deaf friends.
Keywords: Deaf Communication, Object Detection, Sibi, Sign Languange,Yolo.

231 SimanteC
Jurnal SimanteC Vol. 11, No. 2 Juni 2023

PENDAHULUAN menulis, kemudian membacakan dan


kemudian menulis balasan jawabannya.
Tunarungu adalah kondisi medis di Pada umumnya jika tanpa media
mana seseorang kehilangan kemampuan penulisan teman-teman tuli menggunakan
untuk mendengar suara atau bunyi. Tuli seorang penerjemah antara orang biasa
dapat terjadi secara sebagian atau total, dengan mereka. Penerjemah ini adalah
dan dapat terjadi sejak lahir atau terjadi orang yang paham dan dapat
akibat kondisi kesehatan atau kecelakaan.
berkomunikasi menggunakan bahasa
Beberapa faktor risiko yang dapat
isyarat dengan lancar, namun hal ini
menyebabkan tuli meliputi infeksi telinga merupakan sesuatu yang membuang-
yang berulang, paparan suara yang buang waktu dan membutuhkan biaya
berlebihan, cedera kepala, atau faktor tambahan untuk menyewa penerjemah
genetik. Kondisi ini dapat mengganggu tersebut.
kemampuan seseorang untuk Saat ini penggunaan smartphone
berkomunikasi dan berinteraksi dengan yang berkembang pesat saat ini dapat
lingkungannya, dan dapat memengaruhi dijadikan target dalam mengembangkan
kualitas hidup seseorang secara aplikasi khusus penerjemah bahasa
keseluruhan.
isyarat. Smartphone ini dinilai cara yang
Menurut data dari Kementerian
baik digunakan untuk
Sosial Republik Indonesia pada tahun mengimplementasikan aplikasi
2020, terdapat sekitar 1,5 juta orang
mengingat masyarakat Indonesia hampir
penyandang tunarungu atau tuli di
semuanya memiliki smartphone dan
Indonesia. Angka ini menunjukkan bahwa sudah dapat mendukung dan menjalankan
tuli adalah kondisi yang relatif umum di sistem terjemah bahasa isyarat dengan
masyarakat Indonesia. Meskipun
deteksi gerakan. Pengenalan bahasa
demikian, akses terhadap alat bantu isyarat menggunakan kamera dan sistem
pendengaran dan terapi pendengaran bertindak sebagai pelacakan visual dari
masih terbatas, terutama di daerah setiap gerakan dan ekspresi tangan
pedesaan dan kawasan miskin. Hal ini
penyandang tunarungu.
menyebabkan banyak penyandang
Beberapa aplikasi telah
tunarungu kesulitan dalam berkomunikasi
dikembangkan sebagai upaya untuk
dan berpartisipasi dalam kegiatan sosial membantu menerjemahkan bahasa isyarat
dan ekonomi. ke menjadi teks abjad. Pada penelitian
Cara teman tuli berkomunikasi bahasa isyarat ini objek tangan merupakan
dengan menggunakan bahasa isyarat. hal yang utama untuk dibahas. Pemilihan
Bahasa isyarat ini menggunakan gerak metode CNN (Convolutional Neural
tangan, ekspresi wajah atau tubuh untuk Network) untuk proses klasifikasi deteksi
membentuk simbol-simbol yang mewakili dipilih untuk mendeteksi bahasa isyarat
sebuah huruf atau kata [1]. Di Indonesia
Indonesia[3].
ada dua bahasa isyarat yang popouler
Metode YOLO V3 digunakan
digunakan, yaitu Sistem Isyarat Bahasa
dalam penelitian ini mendeteksi gesture
Indonesia (SIBI) dan Bahasa Isyarat
tangan bahasa isyarat, dalam prosesnya
Indonesia (BISINDO). Namun bahasa
Yolo ini dapat melakukan proses tracking
isyarat sibi lebih dianggap sebuah sistem
walaupun kondisi intensitas cahaya
pembelajaran, sedangkan bisindo tercipta
kurang sehingga hasil yang didapatkan
karena interaksi sejak kecil [2].
cukup baik dalam deteksi isyarat [4].
Proses komunikasi masyarakat
Aplikasi android untuk menerjemahkan
awam dengan teman tuli dirasa kurang
bahasa isyarat menjadi teks sekaligus
efektif jika menggunakan media
hasil dari terjemahan dapat dikonversi
tambahan berupa penulisan pada kertas
menjadi suara (text to speech). Hal ini
atau media lainnya, sehingga
akan memudahkan dalam proses
membutuhkan waktu yang lama untuk
berkomunikasi antara teman tuli dan
teman dengar. Metode yang digunakan

232 SimanteC
Dimas Permana dkk, Aplikasi Pengenalan Abjad …

CNN dan memakai model MobileNetV2 Gambaran alur penelitian ditunjukkan


[5]. Penelitian ini menggunakan model pada gambar 1 dibawah ini.
bahasa isyarat Amerika Sign Languange
untuk datasetnya. Kemudian dataset
tersebut dilatih dengan metode CNN
(Convolutional Neural Network). Dari
penelitian ini hasil akurasi yang
didapatkan adalah 82,1% akurasi yang
cukup baik dalam proses deteksi objek,
tetapi model ASL tidak umum digunakan
di Indonesia sehingga perlu adanya
pembaharuan model yang dilatih
menggunakan BISINDO atau SIBI [6].
Penelitian ini [7] telah berhasil membuat
aplikasi android untuk menerjemahkan
bahasa isyarat menjadi teks. Metode yang
digunakan berupa CNN (Convolutional
Neural Network) dan library Tensorflow
Lite, selain itu peneliti menambahkan
beberapa fitur unggulan seperti Deteksi
Isyarat, dan Dictionary sehingga
pengguna tidak hanya bisa
menerjemahkan bahasa isyarat saja tapi
juga dapat belajar bahasa isyarat dari
gambar yang telah disediakan. Penelitian
lainnya telah dilakukan klasifikasi human
hand detection menggunakan three-
dimensional hand pose estimation. Sistem
dapat mendeteksi gerakan posisi tangan Gambar 1. Desain Alur Penelitian.
manusia, didapatkan hasil akurasi rata-
rata 96,2% [8]. Pada gambar 1, proses analisis
Berdasarkan kajian pustaka dengan kebutuhan diperlukan untuk mengamati
penelitian terdahulu, maka tujuan apa saja kebutuhan dari pengguna.
penelitian ini adalah untuk membuat Analisis tersebut didasarkan atas latar
platform pengenalan abjad sibi yang belakang penelitian sehingga berbagai
praktis dan media pembelajaran bahasa kebutuhan fungsional dan kebutuhan non-
isyarat yang efektif. Sehingga dalam hal fungsional dapat terpenuhi.
ini masyarakat awam dan teman tuli dapat Perancangan sistem meliputi proses
berkomunikasi dengan mudah tanpa pelatihan model machine learning,
adanya hambatan. pembuatan data citra, dan desain
antarmuka aplikasi. Untuk implementasi
METODE model akan dimasukkan kedalam sistem
Metode penelitian diawali dengan mobile android dan setelah itu tahap
studi literatur dengan review paper terakhir adalah pengujian aplikasi kepada
penelitian sebelumnya yang berkaitan pengguna.
dengan topik penelitian. Kemudian A. Arsitektur Sistem Aplikasi
dilanjutkan dengan tahap analisis
1. Arsitektur Sistem
kebutuhan sistem, tahap perancangan
Arsitektur sistem, menjelaskan
sistem, tahap implementasi sistem, dan
proses awal dari Pengguna mengakses
terakhir pengujian aplikasi. Metode yang
aplikasi kemudian mengarahkan kamera
digunakan untuk proses pengenalan
ke objek tangan teman tuli yang
adalah You Only Look Once (YOLOv5).
melakukan gerakan bahasa isyarat. Proses

233 SimanteC
Jurnal SimanteC Vol. 11, No. 2 Juni 2023

klasifikasi objek akan dilakukan oleh efisien dan sangat kuat dalam pengenalan
algoritma YOLO v5, jika sistem dapat gambar.
mengenali maka akan menampilkan Salah satu fitur utama dari YOLOv5
bounding box dan output berupa teks adalah kemampuannya untuk mendeteksi
huruf abjad. Proses ini akan terjadi iterasi objek secara real-time pada perangkat
sesuai apa yang dideteksi oleh kamera dengan daya komputasi yang terbatas. Ini
handphone. Gambaran arsitektur sistem berarti YOLOv5 dapat berjalan dengan
ditunjukkan pada gambar 2 dibawah ini. cepat dan efisien bahkan pada perangkat
dengan sumber daya terbatas seperti
perangkat mobile atau embedded systems.

Gambar 2. Arsitektur Sistem.


Pada gambar 2 merupakan proses
berjalannya sistem yang akan dilakukan. Gambar 3. Arsitektur YOLOv5.
Pengguna aplikasi diharuskan
mengarahkan kamera handphone nya Pada gambar 3 merupakan
kepada teman tuli yang melakukan arsitektur dari YOLOv5. Cara kerja
peragaan Bahasa isyarat abjad. Jika sistem YOLOv5 dengan mengubah gambar input
berhasil mengenali objek maka pada menjadi grid yang terdiri dari sel-sel
aplikasi akan menampilkan terjemahan kecil[10]. Setiap sel bertanggung jawab
berupa teks. Proses pengenalan tersebut untuk mendeteksi objek yang berada di
akan berlangsung terus-menerus apabila dalamnya. Model CNN kemudian melihat
diarahkan pada objek tangan. seluruh gambar secara keseluruhan dan
2. Algoritma YOLOv5 menghasilkan prediksi probabilitas untuk
You Only Look Once (YOLO) kelas objek yang berbeda serta kotak
adalah metode deteksi objek yang dikenal pembatas (bounding box) yang
karena kecepatannya [9]. Diperlukan mengelilingi objek [11].
hanya satu jaringan konvolusi yang YOLOv5 mengimplementasikan
digunakan untuk memprediksi objek apa beberapa teknik untuk meningkatkan
yang akan ada dalam gambar. Hal ini akurasi dan kecepatan deteksi, seperti
dapat terjadi karena YOLO membagi metode augmentasi data untuk
gambar menjadi sel/grid, setiap sel memperluas dataset pelatihan,
bertanggung jawab untuk memprediksi penggunaan teknik pemisahan objek
jumlah kotak pembatas (bounding box), untuk meningkatkan kemampuan deteksi,
tingkat kepercayaan setiap sel, dan dan metode pengurangan bobot untuk
probabilitas kelas. mempercepat proses pelatihan.
Algoritma YOLOv5 memakai YOLOv5 juga dapat mengatasi
pendekatan deteksi objek berbasis beberapa tantangan dalam deteksi objek,
jaringan saraf konvolusi (CNN). CNN seperti objek yang tumpang tindih, objek
adalah jenis arsitektur jaringan saraf yang dengan ukuran yang berbeda-beda, dan
sangat baik dalam mengenali pola dan objek dalam kondisi pencahayaan yang
fitur dalam data gambar. YOLOv5 berbeda. Dengan kata lain, algoritma
menggunakan arsitektur EfficientNet YOLOv5 adalah sebuah metode deteksi
sebagai dasar dari modelnya. EfficientNet objek yang efisien dan akurat, yang
adalah sebuah arsitektur CNN yang memungkinkan deteksi objek secara real-
time pada perangkat dengan sumber daya

234 SimanteC
Dimas Permana dkk, Aplikasi Pengenalan Abjad …

terbatas. Algoritma ini telah digunakan pada perangkat target. Hal ini
dalam berbagai aplikasi seperti deteksi memungkinkan deteksi objek secara real-
objek di video, kendaraan otonom, sistem time atau mendekati real-time
keamanan, dan banyak lagi. menggunakan YOLOv5 pada perangkat
3. Object Detection tinggi dengan sumber daya komputasi
Deteksi objek adalah teknologi terbatas.
komputer yang terkait dengan penglihatan TensorFlow Lite juga menyediakan
komputer dan pengolahan citra yang kumpulan API dan alat untuk
berkaitan dengan mendeteksi objek dalam pengembang guna mengintegrasikan
gambar digital berdasarkan warna dan model YOLOv5 ke dalam aplikasi. Ini
bentuk objek [12]. termasuk API inference yang telah
Deteksi objek menggunakan dibangun sebelumnya untuk melakukan
metode YOLOv5 memungkinkan deteksi objek menggunakan model YOLO,
identifikasi objek dalam gambar digital serta alat untuk modifikasi dan optimisasi
atau objek didalam video. Object model[15].
detection dapat dibagi menjadi soft Kolaborasi antara TensorFlow lite
detection yang hanya mendeteksi dengan YOLOv5 memungkinkan deteksi
keberadaan dari objek dan hard detection objek di perangkat, menghilangkan
yang mendeteksi keberadaan serta lokasi kebutuhan akan koneksi internet yang
dari objek [13]. Dalam penelitian ini konstan atau mengandalkan inference
model object detection yang dilatih yaitu berbasis cloud. Ini sangat berguna untuk
untuk mendeteksi sistem isyarat bahasa aplikasi yang membutuhkan deteksi objek
Indonesia (sibi). secara real-time atau beroperasi di
4. Tensorflow Lite lingkungan dengan konektivitas terbatas.
TensorFlow Lite adalah sebuah
framework deep learning open source
yang dirancang khusus untuk pelatihan B. Proses Training Datasets
model [14]. TensorFlow Lite merupakan
versi ringan dari framework TensorFlow
yang dirancang khusus untuk
menjalankan model machine learning
pada perangkat dengan sumber daya
terbatas, seperti ponsel dan perangkat IoT.
Proses untuk konversi dari YOLOv5
ke Tensorflow lite cukup mudah. Langkah
pertama adalah mengonversi model
YOLOv5 yang telah dilatih ke dalam
format model TensorFlow Lite. Proses
konversi ini melibatkan kompresi dan
optimasi model untuk mengurangi ukuran
dan meningkatkan kecepatan inference
dan tetap mempertahankan akurasi yang
tinggi.
Setelah model YOLOv5 dikonversi
ke format TensorFlow Lite, model
tersebut dapat diimplementasikan dan
dieksekusi pada perangkat mobile
menggunakan runtime TensorFlow Lite.
Runtime TensorFlow Lite dirancang Gambar 4. Alur Pelatihan Citra.
untuk menjadi cepat dan efisien, dengan Pada gambar 4 merupakan alur
memanfaatkan kemampuan akselerasi proses dari pelatihan data citra. Proses
perangkat keras seperti GPU, DSP, atau tersebut dilakukan secara bertahap dari
Neural Processing Units (NPU) yang ada

235 SimanteC
Jurnal SimanteC Vol. 11, No. 2 Juni 2023

awal sampai akhir. Berikut merupakan


penjelasan lebih detil dari gambar 4.
1. Pengumpulan Data Citra
Pengumpulan dataset dilakukan
dengan pengambilan sample gambar oleh
penulis sendiri. Gambar citra yang
diambil berjumlah 259 citra digital
peragaan bahasa isyarat sibi abjad A
sampai Z dengan format .jpg dan 3 video
peragaan abjad dari A-Z untuk testing
datasets. Referensi peragaan bahasa
Gambar 6 Labelling Image
isyarat diambil dari website resmi
Lembaga Pengelola Sistem Isyarat Bahasa Pada gambar 6 merupakan proses
Indonesia. Contoh kumpulan data citra memberikan label pada data citra. Pada
untuk dilatih pada gambar 5 dibawah. tahap ini dilakukan secara berulang pada
setiap citra sesuai dengan isyaratnya.
Jumlah class citra yang dihasilkan 26
class masing-masing memiliki 10 gambar.
3. Training Data Citra
Tahap pelatihan model ini
dilakukan dengan membagi dua folder
yaitu test dan train proses pembagian ini
telah digenerate secara otomatis. Pada
bagian ini dilakukan dengan
menggunakan Google Colabolatory yaitu
salah satu workspace pelatihan model
Gambar 5. Data Citra Sibi
yang popular dan ringan digunakan.
Pada gambar 5 merupakan
kumpulan data citra yang diambil secara
mandiri. Posisi memperagakan bahasa
isyarat dilakukan dengan berbagai posisi
dan jarak dekat maupun jauh. Data citra
berjumla 26 class.
2. Label Images
Proses annotation atau pemberian Gambar 7. Proses Training Datasets.
label dilakukan untuk memberikan
Pada gambar 7 merupakan proses
panduan machine learning agar sistem
berlangsungnya pelatihan datasets yang
dapat melatih dirinya untuk mendeteksi
dilakukan dengan bantuan GPU dari
posisi isyarat tangan saja. Pembelian label
google dan bawaan dari laptop. Setelah
pada citra dilakukan dengan website
selesai melakukan pelatihan maka akan
https://www.roboflow.com ini merupakan
dihasilkan model machine learning
website powerful untuk melakukan
berekstensi best.pt atau (PyTorch).
pelatihan model machine learning selain
Proses selanjutnya yaitu validate
gratis web ini juga mudah untuk
model untuk mengecek apakah semua
digunakan.
class sudah dilatih atau belum. Kemudian
selanjutnya testing model menggunakan
citra yang sudah dibagi pada proses awal
pelatihan.

236 SimanteC
Dimas Permana dkk, Aplikasi Pengenalan Abjad …

C. Perancangan Aplikasi Android


1. Gambaran Umum Aplikasi
Penelitian ini mengembangkan
aplikasi penerjemah Sistem Isyarat
Bahasa Indonesia (SIBI) berbasis
Android. Tujuan dari aplikasi ini yaitu
sebagai penerjemah komunikasi antara
teman dengar dan teman tuli. Selain itu
juga memiliki fitur sebagai media
pembelajaran bahasa isyarat sibi dan juga
menampilkan artikel berkaitan dengan
bahasa isyarat, teman tuli dan sejenisnya.
2. Kebutuhan Fungsional
Kebutuhan funsgional merupakan
Gambar 8. Testing Model dengan Image. proses yang harus dilakukan oleh sistem
berinteraksi dengan pengguna. Kebutuhan
Pada gambar 8 merupakan hasil fungsional dapat dilihat pada Tabel 1.
dari test model training. Proses
Tabel 1. Kebutuhan Fungsional Aplikasi.
menandakan bahwa model yang
No Kebutuhan Fungsional
dihasilkan sudah sesuai dan bisa
mendeteksi bahasa isyarat yang sudah 1 Sistem dapat menampilkan halaman
dilatih. Selain itu hasil dari test pengenalan aplikasi.
menampilkan bounding box dan nilai 2 Sistem dapat menampilkan kumpulan
deteksi dengan sangat baik dan posisinya peraga bahasa isyarat (kamus sibi).
tepat pada tangan peraga. 3 Sistem dapat menampilkan informasi
Testing model juga dilakukan artikel berkaitan dengan bahasa
dengan menggunakan video yang diambil isyarat dan tuli.
mandiri oleh penulis. Video yang 4 Sistem dapat menampilkan hasil
dijadikan testing berformat .mp4 dan pengenalan pada aplikasi.
berdurasi 1.30 detik. 5 Sistem dapat mengakses kamera dari
pengguna.
Pada Tabel 1 menampilkan
kebutuhan fungsional aplikasi. Dalam
prosesnya memiliki tiga fitur utama yaitu
fitur terjemah bahasa isyarat, fitur kamus
bahasa isyarat, dan fitur artikel informasi.
3. Kebutuhan Non-Fungsional
Kebutuhan non-fungsional adalah
kebutuhan yang memerlukan properti
untuk mendukung sistem sehingga dapat
berjalan dengan baik. Kebutuhan non-
Gambar 9. Testing Model dengan Video.
funsgional dapat dilihat pada Tabel 2.
Tabel 2. Kebutuhan Non-fungsional
Pada gambar 9 menampilkan hasil
Aplikasi.
dari testing model dengan video peragaan No Kebutuhan Non-fungsional
bahasa isyarat sibi. Video menampilkan 1 Sistem dapat berjalan pada sistem
bounding box yang tepat berada pada ponsel terbatas dengan minim
tangan peraga. Jika posisi tangan spesifikasi.
digerakan maka bounding box akan 2 Sistem dapat digunakan dengan
mengikuti dan terus mendeteksi. Sehingga mudah oleh pengguna awam.
dalam hal ini proses pelatihan model
Pada tabel 2 merupakan kebutuhan
dikatakan berhasil.
non-fungsional aplikasi. Dalam hal ini

237 SimanteC
Jurnal SimanteC Vol. 11, No. 2 Juni 2023

peneliti mempertimbangkan bahwa sistem B. Pengujian Antarmuka Pengguna


atau aplikasi harus dapat dijalankan Pengujian antarmuka terdiri dari
diperangkat yang memiliki spesifikasi pengujian fitur aplikasi yang dilakukan
minimum sehingga dapat diakses oleh dengan metode blackbox. Berikut
siapapun. Kemudian kebutuhan lainnya merupakan Tabel 3 hasil pengujian
yaitu sistem dapat digunakan dengan antarmuka pada aplikasi.
mudah oleh siapapun sehingga disini Tabel 3. Hasil Pengujian Antarmuka.
dibutuhkan analisis pada desain Aktifitas Hasil Keterangan
antarmuka yang baik. Pengujian Pengujian

HASIL DAN PEMBAHASAN Membuka Menampilkan Berhasil


aplikasi halaman login
A. Implementasi Antarmuka Login Menampilkan Berhasil
memasukkan halaman utama
Implementasi antarmuka dilakukan email dan
dengan aplikasi desain interface yaitu password
Figma dan menggunakan Android Studio Membuka Menampilkan Berhasil
menu terjemah halaman
dengan bahasa pemrograman java. terjemah
Aplikasi ini memiliki 6 antarmuka bahasa isyarat
yang terdiri dari halaman splash screen, Membuka Menampilkan Berhasil
menu kamus halaman
halaman utama, halaman terjemah, kamus Bahasa
halaman kamus, halaman artikel isyarat
informasi, halaman login pengguna, dan Membuka Menampilkan Berhasil
menu artikel halaman
halaman akun. Berikut pada gambar 10 artikel
dan 11 contoh gambaran dari antarmuka informasi
Keluar aplikasi Menutup Berhasil
aplikasi. aplikasi dan
Kembali ke
halaman
ponsel

C. Pengujian Akurasi Pengenalan


Abjad
Pengujian deteksi model bahasa
isyarat dilakukan secara manual dengan
menggunakan aplikasi secara langsung.
Proses pengujian dilakukan dengan cara
Gambar 10. Implementasi Antarmuka mengarahkan kamera dari ponsel aplikasi
Aplikasi 1. ke arah peraga isyarat sibi. Berikut pada
gambar 12 merupakan contoh hasil
deteksi yang berhasil.

Gambar 11. Implementasi Antarmuka


Aplikasi 2.
Pada gambar 10 dan 11 Gambar 12. Contoh Hasil Deteksi Isyarat.
menampilkan berbagai antarmuka Pada gambar 12 merupakan
aplikasi. Implementasi antarmuka tampilan dari halaman terjemah isyarat.
berdasarkan kebutuhan fungsional dan Proses pengambilan deteksi harus
non fungsional. melakukan access permission ke kamera
pengguna. Setelah diizinkan maka sistem

238 SimanteC
Dimas Permana dkk, Aplikasi Pengenalan Abjad …

akan langsung mendeteksi isyarat Ketika adalah 77% (0,77). Hasil akurasi dapat
diarahkan ke tangan peraga. dikatakan cukup baik dan berhasil.
Dalam pengujian akurasi
didapatkan dari hasil deteksi selama 10 SIMPULAN
kali pada masing-masing class. Sehingga Arsitektur algoritma YOLOv5
hasil didapatkan seperti pada Tabel 4 menggunakan pendekatan deteksi objek
dibawah. berbasis jaringan saraf konvolusi (CNN).
Tabel 4. Hasil Pengujian Akurasi. CNN adalah jenis arsitektur jaringan saraf
Jumlah Tahap Pengujian yang sangat baik dalam mengenali pola
La Aku
bel 1 2 3 4 5 6 7 8 9
1
rasi dan fitur dalam data gambar. YOLOv5
0 menggunakan arsitektur EfficientNet
A X X X √ √ √ X X X X 0,30
sebagai dasar dari modelnya. EfficientNet
B X √ √ √ √ √ √ √ √ √ 0,90
adalah sebuah arsitektur CNN yang
C √ √ √ √ √ √ √ √ √ √ 1,00 efisien dan sangat kuat dalam pengenalan
D X X X X √ X X X X X 0,10 gambar. Proses training dengan algortima
E X X X X X X X X X X 0,00 YOLOv5 dilakukan pada 300 data cita
F √ √ X √ X X X √ √ √ 0,60 bahasa isyarat sibi.
G √ √ √ √ √ √ √ √ √ √ 1,00 Pengujian dilakukan dengan dua
H √ √ √ √ √ √ √ √ √ √ 1,00 tahap, pertama untuk pengujian
I √ √ √ √ √ √ √ √ √ √ 1,00 antarmuka dari aplikasi yang memiliki 6
J X √ X X X X X X X X 0,10 halaman antarmuka pengguna yang
K X √ √ √ √ √ √ √ √ √ 0,90 semuanya berhasil ditampilkan dengan
L √ √ √ √ √ √ √ √ √ √ 1,00 baik.
M √ √ √ √ √ √ √ √ √ √ 1,00 Pengujian kedua dilakukan dengan
N X X √ √ √ √ √ √ √ √ 0,80 manual untuk mendeteksi gerakan bahasa
O X √ X √ √ √ √ √ √ √ 0,80 isyarat sibi. Proses pengujian dengan
P √ √ X √ √ √ √ √ √ √ 0,90 membandingkan kelas sebenarnya
Q √ √ √ √ √ √ √ √ √ √ 1,00 berjumlah 26 class dengan hasil deteksi
R X √ √ √ √ √ √ √ √ √ 0,90 real-time menggunakan kamera ponsel.
S √ X X √ √ √ √ √ √ √ 0,80
Didapatkan hasil akurasi 77% (0,77).
T X √ √ X √ √ √ √ √ X 0,70 SARAN
U X X √ √ √ √ √ √ √ √ 0,80
V √ √ √ √ √ √ √ √ √ √ 1,00
Penelitian ini masih memiliki
banyak kekurangan, sehingga peneliti
W √ √ √ √ √ √ √ √ √ √ 1,00
memiliki beberapa saran untuk peneliti
X X X √ √ X √ √ √ √ √ 0,70
yang ingin mengembangkan sistem
Y √ √ √ √ √ √ √ √ √ √ 1,00
aplikasi ini dimasa yang akan datang.
Z √ X √ √ √ X √ √ √ √ 0,80
Diantaranya sebagai berikut.
Nilai Rata-rata Akurasi 0,77
Pertama, menambahkan jumlah
Pengujian kelas ‘A’ terdeteksi data citra untuk dilatih dengan algoritma
akurasi rendah dikarenakan gesturnya YOLOv5. Hal tersebut untuk mendapatkan
hampir sama dengan kelas ‘S’. Kelas ‘D’ pengalaman akurasi yang lebih baik lagi
terdeteksi rendah dikarenakan bentuk diperlukan banyak datasets dengan
peraga huruf ‘D’ memerlukan posisi dari berbagai kondisi.
berbagai arah. Kelas ‘E’ tidak terdeteksi Kedua, mengembangkan fitur-fitur
sama sekali dikarenakan hampir sama yang sudah ada maupun menambahkan
gesturnya dengan kelas ‘S’ dan ‘A’. Kelas fitur baru yang membuat aplikasi ini dapat
‘J’ sulit terdeteksi dikarenakan gesturnya dirasakan pengalaman berkomunikasi
yang membutuhkan gerakan lanjutan. dengan teman tuli menjadi lebih baik lagi.
Berdasarkan tabel pengujian diatas DAFTAR PUSTAKA
dapat disimpulkan bahwa hasil pengujian
mendapatkan akurasi untuk 26 class [1] I. Inayatul Arifah, F. Nur Fajri, and G.
Qorik Oktagalu Pratamasunu, “Deteksi

239 SimanteC
Jurnal SimanteC Vol. 11, No. 2 Juni 2023

Tangan Otomatis Pada Video 222, Mar. 2023, doi: 10.54254/2755-


Percakapan Bahasa Isyarat Indonesia 2721/2/20220679.
Menggunakan Metode YOLO Dan [11] M. Bhavadharshini, J. Josephine
CNN,” 2022. [Online]. Available: Racheal, M. Kamali, S. Sankar, and M.
http://jurnal.polibatam.ac.id/index.php Bhavadharshini, “Sign language
/JAIC translator using YOLO algorithm,”
[2] M. Zikky, Z. F. Akbar, and S. Utomo, Advances in Parallel Computing, vol.
“Kamus sistem isyarat bahasa 39, pp. 159–166, 2021, doi:
Indonesia (KASIBI) dengan voice 10.3233/APC210136.
recognition sebagai pendukung belajar [12] R. Hesananda, D. Natasya, and N.
bahasa isyarat berbasis android,” JST Wiliani, “Cloth BAG Object Detection
(Jurnal Sains Terapan), vol. 5, no. 2, Using The Yolo Algorithm (You Only
pp. 121–130, 2019. See Once) V5,” Jurnal Pilar Nusa
[3] M. Yunus and Y. Anwar, “Aplikasi Mandiri, vol. 18, no. 2, pp. 217–222,
Penerjemah Bahasa Isyarat Indonesia Feb. 2023, doi:
Ke dalam Huruf Abjad,” 2022. 10.33480/pilar.v18i2.3019.
[Online]. Available: [13] S. S. Sindarto, D. E. Ratnawati, and I.
https://jurnal.umpar.ac.id/index.php/sy Arwani, “Klasifikasi Citra Sistem
log▪257 Isyarat Bahasa Indonesia (SIBI)
[4] A. Sani and S. Rahmadinni, “Deteksi dengan Metode Convolutional Neural
Gestur Tangan Berbasis Pengolahan Network pada Perangkat Lunak
Citra,” Jurnal Rekayasa Elektrika, vol. berbasis Android,” vol. 6, no. 5, pp.
18, no. 2, Jul. 2022, doi: 2129–2138, 2022, [Online]. Available:
10.17529/jre.v18i2.25147. http://j-ptiik.ub.ac.id
[5] N. Hikmatia and M. I. Zul, “Aplikasi [14] U. Fadlilah, A. K. Mahamad, and B.
Penerjemah Bahasa Isyarat Indonesia Handaga, “The Development of
Menjadi Suara berbasis Andoid Android for Indonesian Sign Language
menggunakan Tensorflow,” 2021. Using Tensorflow Lite and CNN: An
[Online]. Available: Initial Study,” in Journal of Physics:
https://jurnal.pcr.ac.id/index.php/jkt/ Conference Series, IOP Publishing Ltd,
[6] F. D. Siswanto, C. C. Lestari, and E. Apr. 2021. doi: 10.1088/1742-
Tanuwijaya, “Klasifikasi Bahasa 6596/1858/1/012085.
Isyarat Amerika menggunakan [15] Y. Li, Z. Zhao, Y. Luo, and Z. Qiu,
Convolutional Neural Network,” vol. “Real-time pattern-recognition of GPR
10, no. 1, 2022, doi: images with YOLO V3 implemented
10.26418/justin.v10i1.47184. by tensorflow,” Sensors (Switzerland),
[7] R. Haris Alfikri et al., “Pembangunan vol. 20, no. 22, pp. 1–17, Nov. 2020,
Aplikasi Penerjemah Bahasa Isyarat doi: 10.3390/s20226476.
Dengan Metode CNN Berbasis
Android,” 2022. [Online]. Available:
https://ejurnal.teknokrat.ac.id/index.ph
p/teknoinfo/index
[8] H. C. Nguyen, T. H. Nguyen, R.
Scherer, and V. H. Le, “YOLO Series
for Human Hand Action Detection and
Classification from Egocentric
Videos,” Sensors (Basel), vol. 23, no.
6, Mar. 2023, doi: 10.3390/s23063255.
[9] S. Daniels, N. Suciati, and C.
Fathichah, “Indonesian Sign Language
Recognition using YOLO Method,”
IOP Conf Ser Mater Sci Eng, vol. 1077,
no. 1, p. 012029, Feb. 2021, doi:
10.1088/1757-899x/1077/1/012029.
[10] F. Sun, “Face Recognition Analysis
Based on the YOLO Algorithm,”
Applied and Computational
Engineering, vol. 2, no. 1, pp. 213–

240 SimanteC

Anda mungkin juga menyukai