Journal Review
Journal Review
Oleh:
ACHMAD ANIS
ISROAH MUSTAFA
MALANG
2015
Pendahuluan
Saat ini, telah muncul jenis host-based adapter 10 GbE (Gigabite Ethernet) yang
merupakan adapter pertama yang dapat mempertahankan multi-gigabit (4,8-7,3 Gb/s)
dengan latensi yang rendah (10-15 s) pada hardware. Namun host based ini di
ciptakan hanya berfokus untuk mengoptimalkan TCP yang lebih dari 10 GbE untuk
aplikasi data transfer masal yang besarnya lebih dari 10 GbE. Pada tradisional
massege-passing biasanya ditemukan pada cluster dan supercomputer karena
memiliki latensi yang rendah, (10 GbE) sehingga sangat berpotensi menjadi teknologi
penting dalam system area network (SAN). Selama satu dekade terakhir, message-
passing interface (MPI) telah jelas menjadi protokol standar untuk layer aplikasi
komunikasi dalam lingkungan klaster. Jurnal bertujuan untuk mengevaluasi performa
MPI jika dijalankan diatas 10 GbE pada interkoneksi cluster.
Latar belakang
Pada saat penelitian jurnal ini, satu-satunya hosst-based yang tersedia secara
komersial adalah 10GbE LR Server Adapter yang merupakan salah satu teknolgi
penting mencapai multi-gigabit yang ditempatkan di LAN dan WAN dan satu-satunya
cara untuk interface satu komputer dengan kecepatan tinggi pada WAN. Hingga saat
ini, peran potensial dalam SAN tetap menjadi topik yang banyak dibicarakan.
SAN merupakan jaringan yang secara fundamental, berbeda dengan LAN maupun
WAN. Beberapa metrik performa pada LAN mauppin WAN reatif tidak penting dalam
SAN. Namun metrik lainnya sama dan lebih penting dalam SAN. Banyak kelompok
based applications sangat tergantung pada perhitungan yang terbatas oleh inter-node
latency. Inter-node latency adalah waktu yang dibutuhkan untuk sejumlah kecil data
untuk ditransfer satu node ke node yang lain; lawannya adalah bandwidth, yang
merupakan jumlah data hasil transfer yang bisa didapatkan dari satu node ke yang lain
pada waktu itu. Demikian pula, banyak perhitungan terjadi bersamaan dengan transfer
data; lagi, ini berbeda dari LAN, di mana perhitungan umumnya sekunder untuk
transfer data.
Setiap tes dijalankan beberapa kali untuk memastikan bahwa hasilnya konsisten, baik
sehubungan dengan tes yang diberikan dan sehubungan dengan tes serupa. Setiap
kelainan diamati diperiksa dan diuji ulang untuk menentukan apakah mereka muncul
dari faktor-faktor yang tidak terkait dengan tes sendiri.
Tim peneliti memonitor beban sistem seluruh pengujian kami. Beban sistem
direpresentasikan sebagai nomor unit kurang dan umumnya dihitung sebagai rasio
jumlah proses ditambahkan ke CPU menjalankan antrian untuk jumlah proses dihapus
dalam waktu tertentu. Sebuah beban 1,0 berarti bahwa satu CPU terus-menerus sibuk;
kurang dari 1,0 berarti bahwa satu CPU memiliki siklus gratis; dan lebih besar dari 1,0
berarti bahwa lebih banyak pekerjaan yang diminta dari CPU daripada yang mampu
melakukan. "Optimal" beban dalam sistem multi prosesor umumnya sama dengan
jumlah CPU dalam sistem itu.
Untuk memantau beban, kita mengakses dan waktu untuk menandai perhitungan
beban kernel saat ini pada interval 5detik dan merekamnya ke file. Kemudian
menandai waktu di awal dan akhir setiap tes. Waktu 5 detik adalah pengukuran
resolusi tertinggi beban yang didukung oleh kernel. Hal ini memungkinkan kita untuk
mengidentifikasi beban selama setiap tes yang kita jalankan.
Hasil
Sulit untuk membandingkan MPI lebih dari 10 GbE ke MPI atas interkoneksi SAN
lainnya. Hal ini terutama karena spesifikasi MPI memiliki banyak implementasi. Setiap
pelaksanaan, sementara kompatibel dengan MPI, memiliki kekhususan intrinsik yang
mempengaruhi kinerja jaringan secara positif atau negatif. Mencapai kinerja maksimal
MPI membutuhkan implementasi MPI yang akan disetel untuk lingkungan operasi dan
menganggap bahwa lingkungan ini sendiri sudah disetel. Demikian pula, setiap aplikasi
harus menggabungkan pelaksanaan - spesifik optimasi jika ingin mencapai kinerja
puncak.