Anda di halaman 1dari 35

Administrasi Infrastruktur Jaringan

Teknik Komputer dan Jaringan


XII
Kompetensi Dasar
3.16 : Mengevaluasi Load Balancing
4.16 : Mengkonfigurasi Load Balancing

Tujuan Pembelajaran
3.16.1 Peserta didik dapat menjelaskan konsep Load Balancing
3.16.2 Peserta didik dapat Menentukan cara konfigurasi load balancing
4.16.1 Peserta didik dapat Melakukan konfigurasi load balancing
4.16.2 Peserta didik dapat menguji hasil konfigurasi load balancing
Perhatikan Gambar Load Balancing
Berikan Pendapat Anda terkait gambar di bawah ini
Saat 4 Client melakukan
request data kepada server
maka Load Balancer akan
membagi beban tersebut
menjadi sebagian, client 1
dan client 2 akan dilayani
oleh server1 sementara
client 3 dan client 4 akan
dilayani oleh server2. Sama
seperti dengan analogi kue,
bila kue adalah data request
dari client dan pemakan
merupakan server maka kue
tersebut akan dibagi
sebagian agar kue tersebut
habis.
1. LOAD BALANCING
a. Pengertian Load Balancing
• Load Balance adalah suatu metode untuk membagi beban suatu
server menjadi dua atau lebih secara seimbang agar server tidak
mengalami kelebihan beban saat menerima request dari user atau
client. Metode ini digunakan untuk mengoptimalkan sebuah server
agar server tidak mengalami overload.
• Metode load balancing ini tidak menambah bandwidth dari sebuah
server tetapi hanya membagi beban server tersebut. Load Balance
ini biasa digunakan pada server yang memiliki jumlah user atau
client yang melebihi kapasitas maksimum dari jumlah request yang
dapat ditangani oleh server tersebut.
• Load balancing dapat diimplementasikan pada perusahaan yang
memiliki minimal dua sambungan internet. Penelitian terkait
menyatakan bahwa beban jaringa n tidak menjadi lebih ringan
dengan adanya load balance, akan tetapi load balance bertugas
sebagai pengatur alokasi beban jaringan
b. Manfaat Load Balancing
1. Mengurangi Beban Server
Request data dari client tentu akan membuat
server mengalami overload, bila terjadi
overload server tersebut akan down dan tidak
dapat diakses oleh client. Maka dari itu load
balancing membagi beban request data dari
client agar server berjalan lebih maksimal dalam
menangani request data client.
2. Mempercepat Akses
• Bila melakukan load balancing pada web server maka
website dari web server tersebut akan lebih cepat
diakses dikarenakan beban dari client ditangani oleh
dua atau lebih web server yang menyebabkan akses
tersebut dapat ditangani tanpa memperlambat kinerja
dari server.
3. Redudansi
• Jika terdapat 3 web server dan salah satunya
mengalami kerusakan (down) maka 2 web server lain
akan tetap menjaga website selalu berjalan dan dapat
di akses oleh client, client tidak akan menyadari
downtime apapun dari website tersebut.
C. Keuntungan Load Balancing
• Ketika server atau jaringan Anda diakses oleh
banyak pengguna, maka disinilah keuntungan load
balancing yang paling dirasakan. Atau ketika
sebuah aplikasi yang sangat penting yang ada di
sebuah server, tiba-tiba tidak bisa diakses karena
server-nya mengalami gangguan, maka dengan
adanya load balancing bisa dialihkan ke server lain.
• Secara garis besar, keuntungan dari penerapan
load balancing adalah:
1. Menjamin reliabilitas servis
• Reliabilitas sistem artinya tingkat kepercayaan
terhadap sebuah sistem untuk dapat terus
melayani pengguna dengan sebaik-baiknya.
Reliabilitas yang terjamin artinya tingkat
kepercayaan yang selalu terjaga agar para
penggunanya dapt menggunakan servis tersebut
dan melakukan pekerjaannya dengan lancar. Hal ini
amat penting bagi situs-situs komersial.
2. Scalability dan avability
• Satu buah server yang digunakan untuk melayani beribu-ribu
pengguna, tentunya tidak mungkin dapat menghasilkan pelayanan
yang baik. Meskipun telah menggunakan sebuah server dengan
teknologi tercanggih sekalipun, tetap saja bisa kewalahan melayani
penggunanya. Selain itu, satu buah server artinya satu buah titik
masalah. Jika tiba-tiba server tersebut mati, masalah pasti akan
terjadi terhadap situs atau servis di dalamnya. Namun dengan
menggunakan sistem load balancing, server yang bekerja
mendukung sebuah situs atau servis dapat lebih dari satu buah.
Artinya jika ternyata satu buah server kawalahan melayani
pengguna, Anda dapat menambah satu buah demi satu buah untuk
mendukung kelancaran situs Anda. Tidak perlu server yang paling
canggih untuk mengatasi masalah tersebut.
• Selain itu juga titik masalah menjadi terpecah. Jika ada sebuah
server bermasalah, maka masih ada dukungan dari yang lain. Situs
atau servis yang Anda jalankan belum tentu bermasalah ketika
sebuah server mengalami masalah.
3. Improved scalabilitas (peningkatan skalabilitas)
• Level load-balanced Scalable memungkinkan
sistem untuk memelihara performance yang bisa
diterima tingkatkan avability.

4. Higher availability
• Load-balanced memungkinkan kita untuk
mengambil  suatu maintenance  server offline
tanpa kehilangan aplikasi yang ada.
d. Kekurangan Load balancing
1. Biaya Pembangunan Infrastruktur Lebih
Banyak, dikarenakan diperlukan lebih dari
satu link dan satu server / pemberi
layanan.
2. Jika Server Induk bermasalah maka server
lain dibawahnya atau virtualnya
akanbermasalah.
3. Penempatan semua data dalam satu server
akan menjadi target serangan virus, hacker,
atau serangan cyber lainnya.
2. PRINSIP DAN CARA KERJA LOAD BALANCING

Gambar Cara Kerja Load Balancer


• Load Balancer (perangkat load balancing) menggunakan beberapa
peralatanyang sama untuk menjalankan tugas yang sama. Hal ini
memungkinkanpekerjaan dilakukan dengan lebih cepat dibandingkan
apabila dikerjakan oleh hanya 1 peralatan saja dan dapat meringankan
beban kerja peralatan, serta mempercepat waktu respons.
• Load Balancer bertindak sebagai penengah diatara layanan utama dan
pengguna, dimana layanan utama merupakan sekumpulan
server/mesin yang siap melayani banyak pengguna. Disaat Load
Balancer menerima permintaan layanan dari user, maka permintaan
tersebut akan diteruskan ke server utama.
• Biasanya Load Balancer dengan pintar dapat
menentukan server mana yang memiliki load
yang lebih rendah dan respons yang lebih
cepat. Bahkan bisa menghentikan akses ke
server yang sedang mengalami masalah dan
hanya meneruskannyake server yang dapat
memberikan layanan. Hal ini salah satu
kelebihan yang umumnya dimiliki load
balancer, sehingga layanan seolah olah tidak
ada gangguan di mata pengguna.
3. ALGORITMA LOAD BALANCING
• Dalam sistem load balancing, proses pembagian
bebannya memiliki teknik dan algoritma tersendiri.
Pada perangkat load balancing yang kompleks
biasanya disediakan bermacam-macam algoritma
pembagian beban ini. Tujuannya adalah untuk
menyesuaikan pembagian beban dengan
karakteristik dari server-server yang ada di
belakangnya.
• Secara umum, algoritma-algoritma pembagian
beban yang banyak di gunakan saat ini adalah:
1. ALGORITMA ROUND-ROBIN
• Algoritma ini dapat mendistribusikan beban kepada seluruh server
anggota cluster sehingga masing-masing server akan mendapat beban
yang sama dalam waktu yang sama.
• Round-Robin ini sangat cocok saat seluruh anggota server memiliki
kemampuan untuk processing yang sama, karena jika tidak sama maka
beberapa server bisa jadi menerima request lebih dari kemampuan
processing server itu sendiri, sedangkan yang lainnya hanya akan
menerima beban lebih sedikit dari resource yang dimiliki.
• Algoritma Round Robin merupakan algoritma yang paling sederhana
dan paling banyak digunakan oleh perangkat load balancing. Algoritma
Round Robin beker ja dengan cara membagi beban secara bergiliran
dan berurutan dari satu server ke server lainnya.
• Konsep dasar dari algoritma Round Robin ini adalah dengan
menggunakan time sharing, pada intinya algoritma ini memproses
antrian secara bergiliran
2. ALGORITMA WEIGHTED ROUND-ROBIN
• Algoritma ini dapat melakukan perhitunggan
perbedaan kemampuan processing dari masing-
masing server anggota cluster. Administrator dapat
memasukkan secara menual parameter beban yang
akan ditangatangai oleh masing-masing server
anggota cluster, kemudian schedulling
sequence secara otomatis dilakukan berdasarkan
beban server. Request tersebut kemudian akan
diarahkan ke server yang berbeda sesuai
dengan round-robin scheduling sequence.
3. ALGORITMA LEAST-CONNECTION
• Algoritma Least Connection melakukan
pembagian beban berdasarkan banyaknya koneksi
yang sedang dilayani oleh sebuah server. Server
dengan koneksi yang paling sedikit akan diberikan
beban berikutnya, begitu pula server dengan
koneksi banyak akan dialihkan bebannya ke server
lain yang bebannya lebih rendah
• Penjadwalan ini termasuk salah satu algoritma
penjadwalan dinamik, karena memerlukan
perhitungan koneksi aktif untuk masing-masing
real server secara dinamik.
• Metode penjadwalan ini baik digunakan untuk melancarkan
pendistribusian ketika request yang datang sangat banyak. Sebagai
contoh terdapat dua Service-HTTP yaitu Service HTTP-1 (terdapat 3
active HTTP transaction) dan Service HTTP 2 (terdapat 1 active HTTP
transaction), maka Service HTTP-2 akan menerima request
selanjutnya dikarenakan Service HTTP-1 > Service HTTP-2 pada nilai
transaksi aktifnya
4. ALGORITMA RATIO
Algoritma ini membagi beban dengan cara memberi rasio pada setiap
servernya semakin besar rasio maka semakin besar juga server tersebut
menangani beban.
5. ALGOTIRMA FASTEST
Melakukan pembagian beban dengan cara menutamakan server-server
yang memiliki respon paling cepat. Server ini yang nanti akan menangani
beban saat terdapat request. Jadi saat server yang sedang melakukan
pengambilan data yang menyebabkan respon server tersebut menjadi
lambat dan request tersebut akan di ambil oleh server lain yang memiliki
respon tercepat
4. FITUR LOAD BALANCING
1. Asymmetric load. 
Rasio dapat dibuat dengan menentukan koneksi yang
menjadi primary yang dianggap paling baik backbonenya
dan terbaik dalam path routingnya, jadi kita dapat
membuat mesin untuk mencari best path determination
dan routing yang terpendek dan terbaik untuk sampai
ketujuan. 
2. Aktivitas berdasarkan prioritas. 
Disaat load jaringan sedang peek, server akan dapat
membagi aktivitas berdasarkan prioritas dan ke link
cadangan. 
3. Proteksi dari serangan DDoS. 
Karena kita dapat membuat fitur seperti SYN
Cookies dan delayed-binding suatu metode di back-
end server 16 pada saat terjadi proses TCP
handshake pada saat terjadi serangan SYN Flood . 
4. Kompresi HTTP. 
Memungkinkan data untuk bisa mentransfer objek
HTTP dengan dimungkinkannya penggunaan utilisasi
kompresi gzip yang berada di semua web browser
yang modern. 
5. TCP Buffering. 
Dapat membuat respon buffer dari server dan berakibat
dapat memungkinkan task akses lebih cepat. 
6. HTTP Caching. 
Dapat menyimpan content yang static, dengan demikian
request dapat di handel tanpa harus melakukan kontak ke
web server diluar jaringan yang berakibat akses terasa
semakin cepat. 
7. Content Filtering. 
Beberapa Load Balancing dapat melakukan perubahan trafik
pada saat dijalankan. 
8. HTTP Security. 
Beberapa system Load Balancing dapat menyembunyikan HTTP error
pages, menghapus identifikasi header server dari respon HTTP, dan
melakukan enkripsi cookies agar user tidak dapat memanipulasinya. 
9. Priority Queuing. 
Berguna untuk memberikan perbedaan prioritas traffic paket. 
10. Spam Filtering. 
Spam istilah lainnya junk mail merupakan penyalahgunaan dalam
pengiriman berita elektronik untuk menampilkan berita iklan dan
keperluan lainnya yang mengakibatkan ketidaknyamanan bagi para
pengguna web. Bentuk berita spam yang umum dikenal meliputi: spam
surat elektronik, spam instant messaging, spam Usenet newsgroup,
spam mesin pencari informasi web web search engine spam, spam
blog, spam berita pada telepon genggam, spam forum Internet, dan
lain lain. Spam ini biasanya datang bertubi- tubi tanpa diminta dan
sering kali tidak dikehendaki oleh penerimanya
5. TIPE LOAD BALANCER
• Dalam membangun suatu topologi yang memanfaatkan
load balancing tentu kita akan merencanakannya terlebih
dahulu akan bagaimana topologi, harga, kemampuan akhir
dari topologi load balancing, dan jenis load balancer yang
akan digunakan untuk membangun topologi. Di bawah ini
merupakan dua tipe atau jenis load balancer, yaitu :
1. Software load-balancing.
• Dimana load-balancing berjalan disebuah PC/Server, dan aplikasi
load-balancing di install dan perlu dikonfigurasi sebelum dapat
berfungsi. 
• Keuntungannya adalah jika ada penambahan fitur atau fasilitas
tambahan tidak perlu mengganti keseluruhan perangkat load-
balancing. Performa proses load-balancing dipengaruhi oleh
perangkat komputer yang digunakan, tidak bisa hanya
mengandalkan kemampuan software yang canggih saja.
• Perangkat keras yang dapat mempengaruhi
performa metode ini adalah kartu jaringan,
besarnya RAM pada perangkat, media
penyimpanan yang besar dan cepat, dsb.
sehingga performa metode ini sulit untuk bisa
diperkirakan. Beberapa load-balancer software
yaitu: Linux Virtual Server, Ultra Monkey, dan
Network load-balancing.
• Kelebihan:
1. Lebih murah
2. Software aplikasi memiliki banyak pilihan
konfigurasi yang dapat disesuaikan dengan
kebutuhan.
• Kekurangan
1. Sebagian besar aplikasi tidak dapat menangani
situs-situs yang besar atau jaringan yang kompleks.
2. Paket aplikasi yang akan mendukung sistem
besar memerlukan hardware yang banyak juga.
2. Tipe Hardware Load Balancer
• Load balancer jenis ini merupakan
hardware yang telah dibuat hanya untuk
tujuan load balancing dan siap
digunakan.
• Berikut merupakan contoh hardware
load balancer yaitu cisco system catalyst,
coyote point, barracuda load balancer.
• Kelebihan
1. Mudah disesuaikan dari pada
perangkat lunak
2. Proses lalu lintas pada tingkat jaringan,
yang secara nominal lebih efisien
daripada deskripsi perangkat lunak.
3. Bekerja dengan banyak OS atau
platform
• Kekurangan:
1. Biaya lebih mahal dari perangkat lunak
6. HAProxy
1. Pengertian
• HAProxy adalah project open source dibawah GPLv2
license. Haproxy atau kepanjangan dari High Availability
Proxy adalah loadbalancer TCP/IP dan proxy server yang
dapat membagi beban request yang datang kepada multi
node server. sehingga beban server akan dibagi kepada
node server yang ada.
• Pembagian beban nya pun bermacam-macam cara ada
yang sama rata, ada yang berdasarkan beban trafic dan
lain nya. akan kita pelajari algoritma pembagian beban
request  ini selanjutnya. Jadi haproxy ini adalah perantara
antara client/user dengan server (web/database/dll)
sehingga disebut juga dengan haproxy reverse proxy.
• Haproxy tidak hanya bisa untuk web load balancing
namun juga yang lain seperti smtp load balancing atau
mysql load balancing.

2. Cara kerja HAProxy


• Load balance pada web server dapat dilakukan dengan 2
macam yaitu pada Layer 4 (transport layer) dan Layer 7
(application layer). Layer 4 lebih sederhana karena
pembagian hanya berdasarkan range IP dan port. Pada
layer 7 pembagian lebih kompleks sampai pembagian trafic
berdasarkan url tertentu, dsb.
• User akan mengirimkan request kepada load balancer
(haproxy) kemudian diteruskan (forward) ke node (web
server) lain. Teknik load balancing yang sering digunakan
adalah roundrobin dan least
connection. RoundRobin adalah cara yang menganggap
bahwa semua beban server sama, jadi setiap server yang
ada di akses secara bergantian dan berurutan,
sedangkan Least Connection hanya mengalihkan beban ke
server yang dianggap kosong atau trafficnya rendah.
• di dalam haproxy terdapat 2 bagian (side)
yakni frontend dan backend. koneksi yang datang
dari user akan di terima oleh bagian frontend
untuk di olah/filter sesuai rule frontend, jika lolos
maka paket di lanjutkan ke backend untuk di
oleh/filter sesuai rule backend selanjutnya akan
di putuskan untuk kirim ke node tertentu sesuai
strategi yang di pakai backend. Jadi frontend
hanya mengurusi client/users dan backend
mengurusi node server. haproxy ada 2 mode
dalam operasinya yakni HTTP close mode dan
HTTP keep-alive mode.
3. Fitur Basic HAProxy
Proxying : menjembatani koneksi dari client dan server.
SSL : haproxy ssl support secure sockets layer (https)
Monitoring : termonitor secara terus menerus dan tercatat
High availibility : walaupun 1 atau beberapa web server mati masih
tetap terkoneksi
Load balancing : beban trafik yang terbagi sama rata atau sama rasa
Stickiness : aliran data/paket yang melekat pada aturan/rule yang di
setting
Sampling and converting information : pengelompokan dan rekap
data dari paket yang lewat
Map : membuat simple rule untuk setting frontend dan backend
ACLs dan Conditions : haproxy acl mengatur
trafic dengan rule dan condition Stick-tables
Formatted strings HTTP rewriting and
redirection Server protection
Logging : terdapat haproxy log file untuk
maintenance
Statistics : data statistic untuk monitoring
trafic
SEKIAN DAN TERIMA KASIH

Anda mungkin juga menyukai