(APPROVED) KurniawanRamdhani
(APPROVED) KurniawanRamdhani
NPM : 0619103028
Nama : KURNIAWAN RAMDHANI
Konsentrasi : APPLIED NETWORKING
NPM : 0619103028
Kelegkapan Informasi
Kesimpulan:
Diterima/ Ditolak/ Diperbaiki
Alasan:
Bandung,
Menyetujui Mengetahui
Ka. Lab. Applied Networking Sek. Prodi Informatika
2. RUMUSAH MASALAH
Berdasarkan dari permasalahan yang dijelaskan pada bagian latar
belakang masalah, dapat dirumuskan permasalahan tersebut sebagai berikut:
a. Bagaimana cara mengatur sumber daya dalam aplikasi berbasis cloud?
b. Bagaimana cara membuat auto-scaler menjadi lebih efektif dalam
menentukan prediksi workload?
c. Bagaimana mengetahui akurasi prediksi yang dihasilkan?
3. TUJUAN
Penelitian yang dilakukan pada permasalahan yang sudah dijelaskan
memiliki tujuan sebagai berikut:
a. Untuk memaksimalkan manfaat dari fitur auto-scaling pada cloud.
b. Untuk membuat auto-scaler menggunakan algoritma Time Series
Forecasting model Long Short-Term Memory (LSTM) Neural Network
agar dapat meningkatkan elastisitas dan akurasi hasil prediksi.
c. Dapat melakukan pengujian dan analisis pada time series dataset yang
telah disediakan.
4. BATASAN MASALAH
Batasan dari permasalahan yang ada di dalam penelitian ini dibatasi oleh
beberapa hal sebagai berikut:
a. Penelitian menggunakan algoritma Long Short-Term Memory (LSTM)
untuk memprediksi workload.
b. Pengujian menggunakan dataset FIFA Worldcup98 yang memiliki log
timestamp yang terdiri dari client ID, request method, dan status.
c. Penelitian menggunakan dummy web apps berbasis container.
5. LANDASAN TEORI
5.1. Container
Container adalah lightweight package dari sebuah perangkat lunak
yang terdiri dari source code spesifik dari segi bahasa pemrograman yang
digunakan dan semua dependensinya sehingga perangkat lunak dapat berjalan
dari satu environment ke environment lainnya. Container mengisolasi
perangkat lunak dari environment-nya dan memastikan bahwa perangkat
lunak bekerja secara seragam terlepas dari perbedaan environment [6].
Container mempermudah untuk pembagian CPU, memory, storage
dan network resource dalam level sistem operasi dan mekanisme logical
packaging application dalam environment tempat perangkat lunak dijalankan.
Container dan virtual machines (VMs) mempunyai persamaan dari segi
resource isolation dan benefit dari allocation, namun keduanya mempunyai
fungsi yang berbeda karena container hanya memvirtualisasi sistem operasi
sedangkan virtual machines memvirtualisasi perangkat keras. Container lebih
portable dan efisien dibandingkan dengan virtual machine [7]. Perbedaan
arsitektur container dan virtual machines terdapat pada gambar 1.
Gambar 1. Perbedaan container dan virtual machines [6]
5.2. Auto-scaling
Auto-scaling adalah salah satu fitur dari cloud platform untuk
memberikan elastisitas pada sebuah cloud application. Fitur ini membuat
aplikasi secara otomatis dapat menyesuaikan workload sesuai dengan prediksi
kebutuhan yang diperlukan [8]. auto-scaling dapat diaplikasikan dengan
bantuan container orchestration framework dimana deploying dan managing
sebuah aplikasi, terdistribusi sebagai suatu set container dalam sebuah cluster
node [9]. Docker swarm adalah salah satu dari container orchestration
framework. Sebuah arsitektur sederhana containerized system dideploy dalam
sebuah cluster node yang diperlihatkan dalam gambar 2.
[ ]
total
W predicted (1)
Restimated =
W max
container
Algoritma pada gambar 4, menjelaskan fungsi algoritma pada fase
planner. Langkah pertama, algoritma menghitung nilai dari Restimated lalu
membandingkan nya dengan jumlah dari replika container saat ini ¿ ¿) untuk
membuat keputusan scaling (baris ke 1). Jika tidak ada perubahan pada
jumlah container maka tidak ada perubahan yang akan dilakukan (baris 2-3).
Jika nilai estimasi Restimated lebih besar dari ¿ ¿), planner akan meneruskan
perintah scale-up pada executor (baris 4-6). Cooldown timer (CDT)
digunakan untuk menghitung waktu setelah semua perintah scale-up
dijalankan. CDT berfungsi untuk mempertahankan stabilitas jumlah replika
container dengan memberikan interval waktu pada proses scaling untuk
mengatasi perubahan mendadak pada workload. Namun, jika Restimated lebih
kecil dari jumlah replika saat ini, perintah scale-down tidak akan di teruskan
ke executor terkecuali jika interval waktu CDT telah selesai (baris 7-12).
f ( t )=sig ¿ (2)
iii. Sebuah nilai kandidat untuk cell state C̅(t) saat ini dihitung oleh:
C ( t )=tanh ¿ (3)
iv. Input gate menentukan jumlah dari C̅(t) yang akan dimasukin kedalam
cell state saat ini dengan mengalikannya dengan i(t), dimana hal itu
ditentukan oleh rumus :
i (t )=sig ¿ (4)
vi. Output gate mengontrol jumlah C̅(t) yang akan lewat ke cell selanjutnya
menggunakan rumus (5), dimana hasil akhir hidden state h(t) dihitung
oleh rumus (6).
o ( t )=sig ¿ (6)
h ( t )=o ( t )∗tanh (C ( t ) ) (7)
1
n
(8)
MSE ( y , ŷ )= ∑ ( y −¿ ŷ i )² ¿
n i=1 i
n
(9)
∑ ( y i− ŷi ) 2
R2=1− i=1
n
∑ ( y i− y̅ i )2
i =1
1
nsamples −1
(10)
MAE ( y , ŷ )=
nsamples
∑ ¿ y i−¿ ŷ i∨¿¿
i=0
√ 1
nsamples −1
(21)
RMSE ( y , ŷ ) =
n samples
∑ ( y i− ŷi ) ²
i=0
6. METODOLOGI
Metodologi yang digunakan dalam meyelesaikan penulisan tugas akhir ini
meliputi:
6.1 Identifikasi Masalah
Berdasarkan latar belakang yang dijelaskan, penulis memberikan
informasi tentang masalah yang akan digunakan sebagai bahan penelitian,
diantaranya:
6.4 Implementasi
Melakukan implementasi dari algoritma prediksi forecasting dengan
model Long Short-Term Memory (LSTM) dengan dataset berupa timestamp
request HTTP .
6.5 Kesimpulan
Membuat kesimpulan berdasarkan data hasil implementasi.
7. JADWAL PENELITIAN TUGAS AKHIR
Minggu
NO Kegiatan 1 1
1 2 3 4 5 6 7 8 9 10 1 12 13 14 5 16
Studi
Literatur dan
1
Pengumpulan
data
Pengerjaan
2
Tugas Akhir
Analisis dan
3
Perancangan
4 Implementasi
5 Pengujian
6 Sidang
Pembuatan
7
Laporan
8. USULAN PEMBIMBING
- b
- a
DAFTAR PUSTAKA
[1] V. B and B. R, "Next generation cloud computing : new trends and research
directions," Future Generation Computer System, vol. 79, pp. 849-861,
2018.
[16] Amazon Web Services, "AWS Auto Scaling," Amazon, [Online]. Available:
https://aws.amazon.com/autoscaling/. [Accessed 17 12 2022].