Anda di halaman 1dari 7

ISSN : 2355-9365 e-Proceeding of Engineering : Vol.10, No.

1 Februari 2023 | Page 256

Deteksi Hate Speech Pada Twitter


Menggunakan Algoritma BERT
1st Adine Nayla 2nd Casi Setianingsih 3rd Burhanuddin Dirgantoro
Fakultas Teknik Elektro Fakultas Teknik Elektro Fakultas Teknik Elektro
Universitas Telkom Universitas Telkom Universitas Telkom
Bandung, Indonesia Bandung, Indonesia Bandung, Indonesia
adinenayla@student.telkomuniversity.ac.id setiacasie@telkomuniversity.ac.id burhanuddin@telkomuniversity.ac.id

Abstrak— Hate speech atau ujaran kebencian yang berbeda [1]. Pada sosial media, pengguna dapat
pada salah satu platform sosial media yaitu Twitter bertukar ataupun mendapatkan informasi secara bebas.
sudah tidak jarang ditemukan. Pada platform Perkembangan sosial media yang pesat dapat
Twitter, pengguna bebas mendapatkan, bertukar mempengaruhi sikap dan pola perilaku masyarakat.
informasi, serta mengungkapkan opini. Hal ini Semenjak kemunculan sosial media,
merupakan salah satu faktor utama seseorang penggunaan website mengalami penurunan. Hal ini
dapat terkena ujaran kebencian pada Twitter. terjadi dikarenakan fitur pada sosial media lebih
Korban yang terkena ujaran kebencian memiliki unggul daripada fitur website, salah satunya adalah
kemungkinan menderita gangguan kesehatan pertukaran informasi yang selektif dan objektif dengan
mental, dikarenakan sebagian besar korban ujaran fitur pengaturan yang dapat diatur oleh pengguna
kebencian diserang secara verbal atapun secara bebas. Oleh karena itu, pengguna sosial media
emosional. Minimnya penanggulangan deteksi dapat dengan bebas mengakses informasi pribadi
ujaran kebencian pada platform sosial media orang lain dan memanfaatkan informasi tersebut [2].
Twitter masih jarang ditemukan. Pada penelitian Dikarenakan kebebasan tersebut, peluang terjadinya
ini, dilakukan proses simulasi menggunakan cyber bullying meningkat.
website beserta dengan pengujian dan analisis Peningkatan terjadinya cyber bullying
terhadap pendeteksian ujaran kebencian. disebabkan oleh penyalahgunaan sosial media, salah
Pengujian dilakukan dengan cara pengguna akan satu contoh penyalahgunaan sosial media adalah
melakukan input kalimat pada website hate speech, ujaran kata kasar terhadap suatu kelompok ataupun
lalu website akan melakukan preprocessing dan individu. Sebuah individu atau kelompok yang
menganalisa kalimat tersebut menggunakan mengalami cyber bullying memiliki risiko gejala
Algoritma BERT untuk mengklasifikasikan gangguan kesehatan mental yang tinggi seperti
apakah kalimat tersebut termasuk hate speech atau depresi, kecemasan berlebihan, perubahan pola tidur
tidak. Dari hasil pengujian diperoleh bahwa dan pola makan, serta kehilangan minat untuk
pendeteksian hate speech pada akun pengguna beraktivitas [2]. Berdasarkan hal tersebut, pendeteksi
Twitter menggunakan Algoritma BERT ujaran kebencian pada platform sosial media
mendapatkan akurasi sebesar 78.69%, presisi merupakan hal yang penting guna mencegah dan
sebesar 78.90%, recall sebesar 78.69%, dan F1 meminimalisir terjadinya cyber bullying pada sosial
score sebesar 78.77% terhadap pengklasifikasian media.
golongan hate speech. Dengan demikian pengguna
akan lebih mudah mendeteksi hate speech pada II. KAJIAN TEORI
Twitter dengan menggunakan website hate speech.
A. Natural Language Processing
Keywords-- algoritma BERT, aplikasi web, hate Natural Language Processing adalah sebuah
speech, twitter. ilmu terapan kecerdasan buatan mengenai pengolahan
bahasa natural yang bertujuan untuk memproses atau
menerjemahkan kata-kata yang disampaikan oleh
manusia agar dapat dimengerti oleh komputer [3].
I. PENDAHULUAN Natural Language Processing diciptakan sekitar tahun
1950-an sebagai titik potong antara artificial
Pada zaman modern ini, teknologi merupakan intelligence dan ilmu linguistik [4]. Pengertian dari
hal yang tidak asing bagi suatu individu. Berbagai bahasa natural itu sendiri adalah bahasa umum yang
macam teknologi telah tercipta, salah satunya adalah digunakan oleh manusia untuk berkomunikasi [3].
teknologi informasi dimana pada teknologi informasi Bahasa ini tidak mudah untuk diaplikasikan pada
hadir sebuah istilah yang dinamakan dengan sosial komputer dikarenakan membutuhkan proses
media. Sosial media mempunyai arti sebagai media pemahaman yang lama untuk menerjemahkan bahasa
pertukaran informasi secara online dengan berbagai tersebut.
macam platform yang memiliki tujuan dan manfaat
ISSN : 2355-9365 e-Proceeding of Engineering : Vol.10, No.1 Februari 2023 | Page 257

B. Neural Network BERT ini tergolong menjadi dua metode modeling


Neural network atau jaringan saraf adalah suatu yaitu Masked Language Model (MLM) dan Next
sistem komputasi dengan node yang saling Sentence Prediction (NSP). Pada MLM, sebuah kata
berhubungan yang bekerja seperti neuron di otak pada corpus akan disembunyikan dan dilatih.
manusia. Neural network bekerja menggunakan Sementara pada NSP, BERT akan memprediksi
algoritma, dengan ini neural network dapat mengenali kalimat selanjutnya yang memiliki konteks sesuai
pola dan korelasi tersembunyi dalam data mentah, dengan kalimat sebelumnya.
mengelompokkan dan mengklasifikasikannya secara
waktu ke waktu dengan tujuan untuk terus belajar dan
peningkatan. Terdapat empat jenis neural network,
yaitu Convolutional Neural Networks (CNNs),
Recurrent Neural Networks (RNNs), Feedforward
Neural Networks, Autoencoder Neural Networks [5].
Pada Convolutional Neural Networks (CNNs)
terdapat lima jenis lapisan: input, convolution,
pooling, fully connected dan output. Setiap lapisan
memiliki tujuan tertentu, seperti summarizing,
connecting, atau activating. CNN biasa diterapkan
pada natural language processing dan juga
forecasting. GAMBAR 1
Sedangkan Recurrent Neural Networks (RNNs) ARSITEKTUR BERT
menggunakan informasi sekuensial seperti data waktu
dari perangkat sensor. Tipe neural network ini tidak Berdasarkan gambar 1, arsitektur BERT-Base
seperti tipe neural network lainnya, RNN tidak mempunyai 110 juta parameter yaitu jumlah variabel
independent satu sama lain dan output yang yang tersedia dan dapat dipelajari oleh model. Pada
dihasilkan pada setiap elemen bergantung kepada arsitektur BERT-Base, terdapat 12 layer transformer
perhitungan pada elemen sebelumnya. RNN biasa dimana pada setiap blok transformer dapat merubah
diterapkan pada forecasting, analisis sentimen dan urutan representasi pada sebuah kata menjadi urutan
aplikasi teks lainnya. kata atau kalimat yang sudah dikontekstualisasikan.
Berbeda dengan CNN dan RNN, Feedforward Selain itu BERT mempunyai 768 hidden size atau 768
neural networks memliki perceptron yang terhubung layer fungsi matematika yang terletak di antara input
ke stiap perceptron lapisan berikutnya. Informasi dan output dengan fungsi untuk memberikan bobot
tersebut akan dikirimkan secara forward dari satu pada setiap kata. Tentunya BERT juga memiliki 12
lapisan ke lapisan lainnya dan tidak ada loop umpan attention heads dimana pengertian dari attention heads
balik. itu sendiri adalah ukuran blok dari sebuah transformer
Terakhir yaitu Autoencoder Neural Network, [7].
pada tipe ini digunakan untuk membuat abstraksi D. Text Pre-processing
yang disebut encoder, encoder terbentuk dari Text preprocessing bertujuan untuk menyiapkan
serangkaian input tertentu. Tipe ini hampir mirip dan membersihkan kalimat sebelum memasuki tahap
dengan tipe neural network lainnya akan tetapi selnjutnya. Tahapan pada text preprocessing adalah
autoencoder berusaha untuk memodelkan input case folding, filtering, stemming, dan tokenizing.
tersendiri [5]. 1. Case Folding (CF)
C. Algoritma BERT Case folding adalah proses mengubah kalimat dari
Bidirectional Encoder Representations from huruf kapital menjadi huruf kecil. Proses ini
Transformers atau biasa disebut BERT adalah sebuah dilakukan karena arti kata yang menggunakan
algoritma deep learning keluaran Google yang masih huruf kapital sama dengan arti kata dengan huruf
berkaitan dengan NLP (Natural Language kecil [8].
Processing). Algoritma ini adalah invasi dari model 2. Filtering (F)
Transformer dimana model tersebut memproses Filtering adalah metode preprocessing yang
sebuah kata pada kalimat berdasarkan ada atau digunakan untuk menghilangkan sufiks karena
tidaknya kaitan antara kata tersebut dengan kalimat seringkali dianggap tidak penting dalam
secara keseluruhan. Cara kerja algoritma BERT ini menentukan analisis sentimen teks.
tidak seperti algoritma pemrosesan bahasa lainnya. 3. Stemming (S)
BERT akan memproses sebuah kata dengan Stemming adalah metode preprocessing yang
mempelajari konteks daripada kata tersebut digunakan untuk mereduksi bentuk infleksional
berdasarkan kata-kata yang ada. Algoritma BERT dan bentuk turunan dari sebuah kata menjadi
memproses konteks penuh dengan cara melihat pola bentuk dasar yang sama [8].
yang muncul pada sebelum atau sesudah kata [6]. 4. Tokenizing (T)
BERT dilatih menggunakan 2500 juta kata dari Tokenizing adalah metode preprocessing yang
Wikipedia dan 800 juta kata dari buku. Pelatihan digunakan untuk memisahkan setiap kata,
ISSN : 2355-9365 e-Proceeding of Engineering : Vol.10, No.1 Februari 2023 | Page 258

sehingga tidak lagi membentuk kalimat yang 3. Flask module


utuh. 4. Keras module
5. SKLearn module
Contoh preprocessing dapat dilihat pada Tabel 1.
6. Tensorflow module
TABEL 1
TEXT PREPROCESSING C. Perancangan Sistem
Perancangan sistem adalah gambaran dari sistem
Text CF F S T deteksi hate speech yang akan dirancang. Dalam
8she9, perancangan sistem ini terdapat gambaran diagram alir
8#s9,
She9s she9s sistem dan Algoritma BERT.
She 8been9,
been been she mia
mia 3 8mia9,
MIA for mia for 3 days
days 8for9, 1. Diagram Alir Sistem
3 days 3 days
839,
8days9

III. METODE

A. Arsitektur Aplikasi
Aplikasi pendeteksi ujaran kebencian bekerja
dengan mengklasifikasikan teks berbahasa Inggris
sebagai input dan sistem akan menghasilkan keluaran
sebagai label dan probabilitas akurasi terhadap
klasifikasi ujaran kebencian. Ilustrasi aplikasi
GAMBAR 3
ditunjukkan pada Gambar 2 di bawah ini. ALUR SISTEM

Pada tahap ini, sistem akan bekerja dengan


menerima sebuah input data. Data tersebut kemudian
akan dilakukan pre-processing oleh sistem dengan
tujuan untuk mempersiapkan data agar bisa memasuki
tahap selanjutnya dengan optimal. Output sistem
adalah probabilitas input terhadap 3 golongan hate
speech.

2. Use Case Diagram

GAMBAR 2
ARSITEKTUR WEBSITE HATE SPEECH

Gambar 2 menjelaskan gambaran umum dari


aplikasi pendeteksi ujaran kebencian yang dimulai
ketika pengguna telah membuka aplikasi web dengan
memasukkan kalimat yang ingin dideteksi. Ketika
pengguna memiliki teks input, sistem akan melakukan
pra-proses data. Jika sistem telah selesai pra-
pemrosesan, hasilnya akan diklasifikasikan
menggunakan algoritma BERT dan data akan diberi
label dan tingkat akurasi akan dikeluarkan sebagai
output.
GAMBAR 4
B. Perangkat Lunak USE CASE DIAGRAM

Perangkat lunak yang digunakan dalam


Berdasarkan Gambar 4, terdapat dua actor pada
perancangan model, pembuatan website, dan simulasi
diagram yang terdiri dari user dan sistem. User akan
untuk sistem menggunakan perangkat lunak dengan
berinteraksi secara langsung dengan halaman website
spesifikasi sebagai berikut:
untuk menginput kan sebuah kalimat yang akan
1. Bahasa pemrograman python
dilakukan proses klasifikasi, setelah itu sistem akan
2. Google Colab
ISSN : 2355-9365 e-Proceeding of Engineering : Vol.10, No.1 Februari 2023 | Page 259

mengirimkan output berupa akurasi dan pelabelan Proses ini dilakukan untuk menghilangkan angka,
kalimat. kalimat penyambung, dan simbol-simbol yang tidak
diperlukan. Contoh dari filtering dapat dilihat pada
3. Algoritma BERT
tabel 3.

TABEL 3
FILTERING

Input Output
that bitch has been mia that bitch has been mia for
for 3 days & no words days no words from her at
from her at all. all

c. Stemming
Proses ini dilakukan untuk mengembalikan arti
konteks pada kalimat kepada inti dari konteks aslinya.
Contoh dari stemming dapat dilihat pada tabel 4.

TABEL 4
STEMMING

GAMBAR 5 Input Output


FLOWCHART ALGORITMA BERT that bitch has been mia
bitch mia days no words
for days no words from
her all
Pada Gambar 5 merupakan alur kerja dari sistem her at all
Algoritma BERT, jika terdapat input maka BERT akan
mengirimkan input tersebut kepada transformer d. Tokenizing
encoder dimana input akan melakukan proses token Proses ini dilakukan untuk memisahkan setiap
embedding, sentence embedding, dan positional kata pada kalimat sehingga tidak lagi membentuk
embedding. Setelah input telah selesai pada bagian
encoder, encoder akan mengirimkan hasil output suatu kalimat. Contoh dari tokenizing dapat dilihat
kepada decoder. Decoder akan mengirimkan hasil pada tabel 5.
output kepada softmax agar hasil matriks dapat diubah
menjadi probabilitas. Probabilitas ini akan menjadi TABEL 5
TOKENIZING
hasil akhir pada sistem.
D. Desain Sistem
Input Output
Tahap awal agar sistem dapat bekerja adalah bitch mia days no words 8bitch9, 8mia9, 8days9,
menerima masukan yang diperoleh dari pengguna. her all 8no9, 8words9, 8her9, 8all9
Setelah mendapatkan input, data akan diproses terlebih
dahulu sehingga dataset siap untuk digunakan pada 2. Klasifikasi menggunakan algoritma BERT
tahap selanjutnya. Proses ini akan mengubah kalimat menjadi label
1. Text Preprocessing dan probabilitas akurasi berdasarkan hate speech label.
Proses ini akan mengubah kalimat mentah sebuah a. Token embedding
kata menjadi kalimat terstruktur sesuai kebutuhan Langkah pertama adalah menempatkan ID
tahap selanjutnya. Proses ini terdiri dari case folding, kosakata pada sebuah kalimat. Contoh kalimatnya
tokenizing, filtering, dan stemming. adalah "I Love NLP". Kemudian token tersebut
sebuah. ditambahkan sehingga kalimatnya menjadi [CLS] I
a. Case Folding [MASK] NLP [SEP]. Token [CLS] akan memberi tahu
Proses ini digunakan untuk mengubah huruf besar algoritma bahwa itu adalah awal kalimat, sedangkan
menjadi huruf kecil. Contohnya dapat dilihat pada token [MASK] akan memberi tahu algoritma bahwa
Tabel 2 di bawah ini. token itu digunakan untuk memprediksi kata yang
cocok dan berhubungan dengan kata lain dalam sebuah
TABEL 2
kalimat, dan Token [SEP] akan memberi tahu
CASE FOLDING
algoritme bahwa token itu sendiri digunakan untuk
Input Output menandai akhir kalimat.
That bitch has been MIA that bitch has been mia for
for 3 days & no words 3 days & no words from
from her at all. her at all.
b. Filtering
ISSN : 2355-9365 e-Proceeding of Engineering : Vol.10, No.1 Februari 2023 | Page 260

TABEL 6 Q : queries
CONTOH TOKEN EMBEDDING
K : keys
d : embedding
I Love NLP
V : values
�㔸[�㔶Āÿ] �㔸�㔼 �㔸[ā�㔴ÿÿ] �㔸ĂĀ�㕃 �㔸[ÿ�㔸�㕃]
0.71 0.59 0.71
�㔾 Ā = [ ]
0.69 0.74 0.52
0.71 0.64 0.66
b. Sentence embedding �㕄�㔾 Ā = [0.42 0.38 0.38]
Sentence embedding akan menempatkan kelas 0.48 0.46 0.42
numerik untuk membedakan antara kalimat A dan 0.50 0.45 0.47
�㕄�㔾 Ā
kalimat B. Sehingga kalimat tersebut menjadi: = [ 0.3 0.27 0.27]
√�㕑 0.34 0.32 0.3
TABEL 7
CONTOH SENTENCE EMBEDDING �㕄�㔾 Ā 1 1
x �㕉 = [0.6 0.5]
√�㕑 0.7 0.6
I Love NLP
�㔸�㔴 �㔸�㔴 �㔸�㔴 �㔸�㔴 �㔸�㔴
Maka hasil akhir dari perhitungan atas adalah:
1 1
c. Transformer positional encoding [0.6 0.5]
Transformer positional encoding akan 0.7 0.6
Hasil tersebut merupakan nilai output dalam
menempatkan lokasi setiap kata pada sebuah kalimat.
bentuk probabilitas. Perhitungan ini akan kembali
Kalimat tersebut akan menjadi: berulang pada setiap head pada multi head.
TABEL 8
CONTOH TRANSFORMER POSITIONAL
IV. HASIL DAN PEMBAHASAN

I Love NLP A. Data Partition Test


�㔸0 �㔸1 �㔸2 �㔸3 �㔸4 Pada skenario ini dilakukan distribusi data testing
dan data training dengan rasio yang berbeda. Skenario
default dalam pengujian ini adalah epoch 15, batch
d. Transformer encoder
size 32, dan 0,00003. Skenario partisi data akan diuji
Misalkan nilai random embedding adalah sebagai menjadi lima skenario, yaitu train 90% dengan test
berikut: 10%, train 80% dengan test 20%, train 70% dengan
I Love NLP Positional Encoder test 30%, train 60% dengan test 40%, dan train 50%
[0.1 −0.5 0.0 0.1 dengan test. uji 50%. Gambar 6 menunjukkan hasil
[ 0.6 0.9 ] [0.84 0.54 ] pengujian partisi data.
0.8 0.6 0.12 −0.41
Maka untuk menghasilkan output embedding
maka input dan positional encoder akan dijumlahkan Partition Data Chart
sebagai berikut: 80
0.1 −0.5 0.0 0.1 0.1 −0.4
[0.6 0.9 ] + [0.84 0.54 ] = [1.44 1.44 ] 79
0.8 0.6 0.12 −0.41 0.12 0.19 78
Hasil diatas merupakan Misalkan Queries (Q), 77
Keys (K), Values (V) dan nilai d adalah sebagai berikut: 76
Q K V d 10%-90% 20%-80% 30%-70% 40%-60% 50%-50%
0.71 0.30 0.71 0.69 0.58 0.53 Akurasi Presisi Recall F1 Score
[0.38 0.22] [0.59 0.74] [0.76 0.83] 2
0.34 0.36 0.71 0.52 0.89 0.78
Berdasarkan persamaan 1 maka ketiga nilai GAMBAR 6
tersebut akan dilakukan perhitungan dan nilai K akan GRAFIK PARTISI DATA
di transpose menggunakan formula berikut untuk
mendapatkan nilai softmax:
B. Batch Size Test
�㕄�㔾 Ā Setelah mempartisi data dan mendapatkan hasil
ý�㕜�㕓þ�㕚�㕎�㕥 = ( ) �㕉 yang optimal, langkah selanjutnya adalah skenario
√�㕑 (1)
pengujian ukuran batch dengan mengubah nilai
ukuran batch. Skenario akan diuji menjadi tiga
Keterangan:
skenario, yaitu 8 batch size, 16 batch size, dan 32 batch
ISSN : 2355-9365 e-Proceeding of Engineering : Vol.10, No.1 Februari 2023 | Page 261

size. Gambar 7 menunjukkan 4 hasil pengujian ukuran


batch. Epoch Chart
Batch Size Chart 80
78
80
76
78
74
76
5 10 15 20
74
8 16 32 Akurasi Presisi Recall F1 Score

Akurasi Presisi Recall F1 Score


GAMBAR 9
GRAFIK EPOCH
GAMBAR 7
GRAFIK BATCH SIZE
E. Kesimpulan Testing
Hasil performansi paling optimal terletak pada
C. Learning Rate Testing model dengan hasil 30% testing data partition dan
Skenario pengujian dilakukan dengan mengubah 70% training data, batch size 16, learning rate
nilai learning rate pada pelatihan. Skenario ini 0,00003, dan epoch 15. Hasil akhir pada dataset bahasa
didasarkan pada nilai partisi data dan ukuran batch Inggris akurasi 78,69%, 78,90% presisi, recall sebesar
terbaik. Skenario learning rate akan diuji dalam tiga 78,69%, dan skor F1 sebesar 78,77% terhadap
skenario yaitu, 0,00001, 0,00003, dan 0,00005. klasifikasi kelompok ujaran kebencian.
Gambar 8 menunjukkan hasil tes learning rate.
V. KESIMPULAN
Learning Rate Chart
Berdasarkan hasil pengujian dan analisis yang
79 telah dilakukan, maka dapat disimpulkan sebagai
78 berikut:
1. Model BERT mempelajari kategori ujaran
77
kebencian berdasarkan pelabelan pada kumpulan
76 data yang divalidasi oleh penerjemah bahasa
0.00001 0.00003 0.00005 Inggris.
Akurasi Presisi Recall F1 Score
2. Hasil performansi paling optimal terdapat pada
model dengan hasil partisi data testing 30% dan
GAMBAR 8 data training 70%, batch size 16, learning rate
GRAFIK LEARNING RATE
0,00003, dan epoch 15. Hasil akhir pada dataset
D. Epoch Testing bahasa Inggris adalah akurasi 78,69%, Presisi
Setelah dilakukan pengujian learning rate yang 78,90%, recall 78,69%, dan skor F1 78,77%
optimal, selanjutnya adalah skenario pengujian epoch terhadap klasifikasi kelompok ujaran kebencian.
dengan mengubah jumlah epoch. Pengujian epoch Selain itu, semakin banyak data pelatihan, model
akan diuji ke dalam empat skenario yaitu, 5 epoch, 10 memiliki wawasan yang lebih dalam tentang data
epoch, 15 epoch, dan 20 epoch. Gambar 9
yang dipelajari dan penggunaan transformator dan
menunjukkan hasil epoch test.
softmax dalam menghasilkan probabilitas dalam
model.

REFERENSI

[1] T. A. Cahyanto, V. Wahanggara and D. Ramdana,


"Analisis dan Deteksi Malware Menggunakan Metode
Malware Analisis Dinamis dan Malware Analisis
Statis," Jurnal Sistem & Teknologi Informasi
Indonesia, vol. 2, p. 19, 2017.
ISSN : 2355-9365 e-Proceeding of Engineering : Vol.10, No.1 Februari 2023 | Page 262

[2] R. Garett, L. R. Lord and S. D. Young, "Associations [6] Pandu Nayak, "Understanding searches better than ever
Between Social Media and Cyberbullying : A Review before," Google, 25 Oktober 2019. [Online]. Available:
of The Literature," vol. 2, 2016. https://blog.google/products/search/search-language-
[3] IBM Cloud Education, "IBM Cloud Learn Hub," understanding-bert/. [Accessed 30 November 2021].
Natural Language Processing (NLP), 2 Juli 2020. [7] B. Muller, "huggingface bert 101," BERT 101 STATE
[Online]. Available: OF THE ART NLP MODEL EXPLAINED, 2 Maret
https://www.ibm.com/cloud/learn/natural-language- 2022. [Online]. Available:
processing. [Accessed 20 Juli 2022]. https://huggingface.co/blog/bert-101. [Accessed 28
[4] P. M. Nadkarni, L. Ohno-Machado and W. W. Agustus 2022].
Chapman, "Natural Language Processing : an [8] D. Gunawan, C. A. Sembiring and M. A. Budiman,
introduction," pp. 544-551, 2011. "The Implementation of Cosine Similarity to Calculate
[5] SAS Institute Inc., "Neural Networks : What they are & Text Relevance between Two Documents," Journal of
why they matter," [Online]. Available: Physics : Conference Series, pp. 1-6, 2017.
https://www.sas.com/en_id/insights/analytics/neural-
networks.html. [Accessed 12 September 2022].

Anda mungkin juga menyukai