Anda di halaman 1dari 15

PENGUKURAN KECEPATAN PROSES PADA HIGH PERFORMANCE COMPUTING (HPC) CLUSTER SERVER

Rio Hendri
alfa_zezt_fasters@yahoo.co.id

Simon Siregar, SSi, MT.


Ija72@yahoo.com

Ismail, SSi, MT.


Ismail_indonesia@yahoo.com

Program Studi Teknik Komputer Politeknik Telkom Bandung 2010

ABSTRAK Saat ini teknologi server terus berkembang, demikian juga teknologi cluster untuk berbagai keperluan di berbagai bidang, dengan hal ini penulis ingin membuat cluster server serta mempelajari keunggulan cluster server untuk di aplikasikan di berbagai bidang yang sangat membutuhkan teknologi ini. Dengan demikian masalah komputasi bukan menjadi masalah dengan hadirnya cluster ini yang menawarkan layanan untuk melakukan proses komputasi yang melebihi kecepatan komputer server yang stand alone. Rocks clusters sendiri adalah distro Centos menggunakan kernel Linux Redhat 5 yang telah di kembangkan sedemikian rupa, sehingga dapat menghasilkan komputer yang dapat melakukan pemprosesan komputasi tinggi. Dengan demikian pembuatan cluster server terasa sedikit mudah dibandingkan dengan distro lain namun mempunyai banyak keunggulan dalam hal komputasi, monitoring, integrasi dan pemeliharaan resource yang ada. Untuk membuat Cluster, diperlukan beberapa tahapan mulai dari administrasi dan instalasi frontend dan compute node. Dilanjutkan dengan pengaktifan layanan tertentu seperti DNS dan Linpack untuk menguji komputasi Server Cluster berbasis rocks clusters.

Kata Kunci: Cluster Server, Rocks clusters, Frontend, Compute Node

1 1.1

PENDAHULUAN Latar Belakang peneliti, pada bisnis dan industri kebutuhan 1.4

b. Mengukur

kecepatan

proses

perkalian

matriks di komputer cluster HPC dengan menggunakan software Linpack. Batasan Masalah Batasan masalah pada proyek akhir ini adalah: a. Sistem HPC cluster System Free, ini berjalan pada Linux serta

Saat ini berbagai komunitas di antaranya akademik, dihadapkan

pertambahan

komputasi yang semakin besar dan komplek. Kebutuhan ini memicu penyediaan sumber daya komputasi dalam jumlah besar. Dikarenakan penyediaan sumber daya tersebut

Operating dikarenakan mempunyai

berbasiskan Open Source,

membutuhkan biaya yang tidak sedikit maka pemakaian harus efisien dan efektif. Salah satu Teknologi yang dapat mengefisienkan kerja dari sistem pemroses adalah sistem komputasi High Performance Computing (HPC) yang bekerja pada sistem pemroses paralel pada cluster komputer. Pada penelitian proyek akhir yaitu Pengukuran Kecepatan Proses pada High

banyak

utilitas

sehingga

memudahkan implementasi. b. Sistem HPC cluster ini berjalan pada Rocks Cluster Operating System. c. Jumlah komputer yang digunakan pada HPC cluster ini adalah sebanyak 6 buah, dengan spesifikasi masing masing komputer: Pentium 4 3,00 GHz, 1 GB RAM, HDD 80 GB, dan Gigabit Ethernet card. d. Untuk menguji kinerja dari komputer cluster digunakan pengukuran kecepatan perkalian

Performance Computing (HPC) Cluster Server akan memanfaatkan komputer yang ada pada laboratorium Politeknik Telkom. 1.2 Rumusan Masalah Berdasarkan latar belakang yang telah disebutkan di atas, maka perumusan masalah dalam penelitian ini adalah bagaimana

matriks Linpack.

dengan

menggunakan

software

membangun sebuah komputer cluster HPC dari beberapa PC dan mengukur kecepatan dari komputer cluster tersebut. 1.3 Tujuan Tujuan dari proyek akhir ini adalah : a. Membangun komputer cluster HPC dari beberapa PC.

1.5

Metodologi Penelitian

Metode yang digunakan dalam menyelesaikan masalah untuk proyek akhir ini antara lain: A. Tahap Studi Literatur Dilakukan studi literatur dengan mempelajari mengenai konsep dan teori pendukung yang berkaitan dengan proyek akhir ini. Proses pembelajaran materi penelitian melalui pustakapustaka yang berkaitan dengan penelitian baik berupa buku maupun jurnal ilmiah. Beberapa materi terkait proyek akhir ini adalah dokumentasi rocksclusters, aplikasi cluster, penguasaan konfigurasi jaringan, dan pembuatan web server. B. Tahap Wawancara Untuk memperkuat dasar teori kami melakukan wawancara langsung kepada bapak Eko Musito, selaku narasumber berkaitan dengan pembuatan atau implementasi Rocksclusters. Beliau adalah salah satu yang telah mengimplementasikan Rockscluster di ITB disamping itu juga beliau aktif di lembaga pengembangan Opensource atau yang kita kenal dengan IGOS.

TINJAUAN PUSTAKA

2.1 Sistem Clustering Clustering dalam ilmu komputer adalah gabungan sumber daya komputer yang saling terkoneksi dan bekerja bersama-sama pada saat yang bersamaan untuk mengerjakan task atau menyediakan layanan. PC cluster adalah sebuah sistem komputer yang terdiri dari beberapa PC (Personal Computer) yang dikoneksi dalam satu jaringan untuk melakukan sebuah pekerjaan komputasi atau mengerjakan task secara bersama-sama. Tipe mendasar dari cluster sendiri terbagi menjadi dua jenis, yaitu: a. High Perfomance Computing (HPC) adalah jenis cluster dengan performance yang tinggi yang dicapai dengan membagi-bagi tugas atau beban yang ada ke sekumpulan komputer server. High performance Computing adalah sekumpulan server yang bekerja bersama-sama pada saat yang bersamaan untuk mengerjakan sesuatu tugas tertentu, biasanya dalam bentuk tugas perhitungan yang berat-berat, seperti simulasi bumi, me-render film animasi, dll. b. Load Balancing adalah sebuah konsep untuk menyeimbangkan beban atau muatan kerja ke beberapa komputer server, misalnya membagi beban kerja web server dan database server. c. High Availability (HA). adalah jenis cluster bila satu komputer server gagal melayani service tertentu, maka tugas server tersebut otomatis akan dilempar ke server lainnya. d. Grid Computing Teknologi komputasi grid adalah suatu cara penggabungan sumber daya yang dimiliki banyak komputer yang terhubung dalam suatu jaringan sehingga

C.

Tahap Imlementasi

Pada tahap ini dilakukan pembuatan kompuer server dan komputer node (client) untuk implementasi rocksclusters pada jaringan perusahaan enterprise. Dilakukan pemilihan paket pendukung di sisi komputer node, administrasi pemakai, dan administrasi web server lokal untuk pemantauan kinerja server. Adapun tahapan ini dibagi beberapa langkah: a. b. c. d. 1.6 Menginstal Rockscluster Melakukan administrasi sistem di frontend Melakukan administrasi sistem di compute node Melakukan pengujian cluster server. Jadwal Pengerjaan Tabel 1.1 Jadwal Pengerjaan

terbentuk suatu kesatuan sistem komputer dengan sumber daya komputasi yang besar.

superkomputer menjadi bagian dari kinerja komputasi.

2.2 High Performance Computing Cluster High Performance Computing (HPC) Cluster menggunakan superkomputer dan cluster komputer untuk memecahkan masalah perhitungan. Istilah ini paling sering berhubungan dengan komputer digunakan untuk penelitian ilmiah. Sebuah istilah yang terkait, performa teknis komputasi tinggi, umumnya mengacu pada aplikasi rekayasa komputasi berbasis cluster (seperti dinamika fluida komputasi dan bangunan dan uji coba virtual prototip ). Baru-baru ini, HPC telah tersedia untuk diterapkan untuk bisnis berbasis penggunaan cluster superkomputer, seperti gudang data, aplikasi line-of-business (LOB), dan pemrosesan transaksi. Komputasi kinerja tinggi adalah istilah yang muncul setelah istilah superkomputer. HPC kadang-kadang digunakan sebagai sinonim untuk superkomputer, tetapi, dalam konteks lain, superkomputer digunakan untuk merujuk pada subset lebih kuat kinerja komputer kecepatan tinggi, dan istilah superkomputer menjadi bagian dari kinerja komputasi.

2.4 Pemrograman Paralel Pemrograman paralel adalah teknik pemrograman komputer yang memungkinkan eksekusi perintah / operasi secara bersamaan (komputasi paralel), baik dalam komputer dengan satu (prosesor tunggal) ataupun banyak (prosesor ganda dengan mesin paralel) CPU. Bila komputer yang digunakan secara bersamaan tersebut dilakukan oleh komputer-komputer terpisah yang terhubung dalam suatu jaringan komputer lebih sering istilah yang digunakan adalah sistem terdistribusi (distributed computing).

2.5 Job Scheduler Mekanisme pemilihan mesin yang disediakan oleh MPI sangat sederhana. Mesin-mesin pada urutan teratas akan sering digunakan dibanding mesin-mesin yang lain. Job Scheduler digunakan untuk mengatur job-job yang dikirim pengguna dan kemudian mengeksekusinya pada sumber daya yang tepat. Job Scheduler disebut juga dengan Distributed Resource Management (DRM).

2.3 Komputasi Paralel High Performance Computing (HPC) Cluster menggunakan superkomputer dan cluster komputer untuk memecahkan masalah perhitungan. Istilah ini paling sering berhubungan dengan komputer digunakan untuk penelitian ilmiah. Sebuah istilah yang terkait, performa teknis komputasi tinggi, umumnya mengacu pada aplikasi rekayasa komputasi berbasis cluster (seperti dinamika fluida komputasi dan bangunan dan uji coba virtual prototip ). Baru-baru ini, HPC telah tersedia untuk diterapkan untuk bisnis berbasis penggunaan cluster superkomputer, seperti gudang data, aplikasi line-of-business (LOB), dan pemrosesan transaksi. Komputasi kinerja tinggi adalah istilah yang muncul setelah istilah superkomputer. HPC kadang-kadang digunakan sebagai sinonim untuk superkomputer, tetapi, dalam konteks lain, superkomputer digunakan untuk merujuk pada subset lebih kuat kinerja komputer kecepatan tinggi, dan istilah 2.6 High Performace Linpack (HPL) dan ATLAS (Automatically Tuned Linear Algebra Software) HPL adalah perangkat lunak yang memecahkan system linear pada komputer aritmatik yang memiliki memori terdistribusi. Paket program HPL menyediakan program pengujian dan waktu untuk mengukur keakuratan dari sebuah solusi, serta waktu yang dibutuhkan untuk menghitung hal tersebut. Kinerja yang terbaik yang dicapai program ini pada sebuah sistem tergantung pada berbagai macam faktor. Terutama, dengan adanya beberapa asumsi, terbatas pada jaringan interkoneksi. Selain itu, Paket perangkat lunak HPL membutuhkan ketersediaan Message Parsing Interface (MPI) sebelum program ini dijalankan. Sebelum proses instalasi HPL, yang terlebih dahulu di install adalah ATLAS (Automatically Tuned Linear Algebra Software), yaitu sebuah empirical tuning yang menghasilkan BLAS (Basic

Linear Algebra Subprograms) library dioptimalkan secara khusus pada sistem ATLAS.

pada compute nodes. Lain halnya pada ethernet interface eth1 ini fungsinya menghubungkan network internal ke external network.

ANALISIS KEBUTUHAN DAN PERANCANGAN Desain Jaringan Rocksclusters

3.2

Desain Jaringan Lokal Cluster

3.1

Desain jaringan pada server rocks clusters pada umumnya bisa digambarkan dalam bagan berikut ini. Dalam arti beberapa komputer digabungkan menjadi satu kesatuan server cluster berbasis rocks cluster operating system.

Jaringan cluster yang akan dibuat secara garis besar menggunakan desain standar dari rock cluster sehingga pada akhirnya akan menghasilkan performansi yang diharapkan pada awalnya. Pada proyek akhir ini cluster pada laboratorium ini menggunakan satu buah frontend dan lima buah compute node. Untuk meningkatkan performansi, maka jumlah total CPU pada cluster ini ada enam buah PC. Hal ini bertujuan agar performansi yang dihasilkan mampu memberikan hasil yang lebih baik lagi. Untuk skema lebih detail silahkan lihat gambar di bawah ini.

Front Node

Gambar 3.1 Skema Desain Rockslusters Hal-hal yang perlu di perhitungkan adalah perangkat fisik untuk membangun cluster ini, artinya sebisa mungkin memilih perangkat keras komputer CPU yang sepadan dan lebih baik lagi jika CPU yang digunakan mempunyai performansi yang tinggi untuk dijadikan cluster server. Untuk memenuhi estetika dan keindahan, motherboard yang digunakan sebagai cluster server dapat disusun didalam suatu wadah atau tempat yang dapat di desain sendiri, apabila tidak dibuatkan tempat untuk cluster server tersebut maka CPU yang digunakan akan menghabiskan tempat yang cukup luas. Pada compute node, Ethernet interface yang ada dalam hal ini eth0 harus terhubung ke Ethernet switch cluster. Network ini dikhususkan untuk network internal dimana semua trafik jaringan semuanya merupakan private network. Pada frontend, kita membutuhkan minimal dua ethernet interfaces. Interface yang berhubungan dengan internal network adalah eth0 harus terhubung pada ethernet network yang sama

Compute Node 0 - 4

Compute Node 0 - 3 Compute Node 0 - 0 Compute Node 0 - 1

Compute Node 0 - 2

Gambar 3.2 Skema fisik Sistem Cluster


Front Node
eth 0

Compute Node

eth 0

Ethernet Switch
eth 0

eth 0

Compute Node

eth 0

eth 0

Compute Node

Compute Node

Compute Node

Gambar 3.3 Skema logic system cluster

3.3

Spesifikasi Hardware

Berikut ini adalah spesifikasi komputer frontend dan compute node yang digunakan pada proyek akhir ini. 3.3.1 Spesifikasi Komputer Frontend Berikut adalah spesifikasi komputer frontend.

a. b. c. d.

CPU Speed : 3.00 GHz CPU Model : Intel(R) Pentium(R) 4 CPU SCSI Device : SATA WDC, 80 GB USB Controler : VIA Technologies, Inc. USB 2.0

b. Gigabit Ethernet Switch, pada proyek akhir ini menggunakan switch Alied Tellesis. c. Kabel UTP Cat 5e.

3.4

Alokasi Disk pada Frontend

e. f. g.

IDE Device : COMBO ASUS RAM : 2 GB VISIPRO Audio Device : VIA Technologies, Inc. VT1708/A

Sebelum menginstal frontend, perlu memahami alokasi disk di dalamnya, setiap partisi mempunyai kegunaan tersendiri, pada frontend dapat dialokasikan space hardisk sebagai berikut: a. / : Di alokasikan 16 GB berfungsi untuk tempat instalasi sistem default. b. /var : Di alokasikan 4 GB bersifat tambahan dan harus dialokasikan, karena berkaitan dengan semua tempat library sistem bertempat di direktori /var. c. swap : Di alokasikan 1 GB, swap berfungsi sebagai memori tambahan yang diambil dari hardisk. d. /export : Berfungsi sebagai pengingat kondisi kapasitas disk / ( root), sudah penuh ataupun belum penuh.

h.

Ethernet Controler : D-Link System,Inc. RTL8139 Ethernet

i.

Motherboard : Asus

3.3.2 Spesifikasi Compute Node Spesifikasi komputer node tidak jauh berbeda dengan komputer frontend, berikut ini adalah detailnya: a. CPU Speed : 3.00 GHz b. CPU Model : Intel(R) Pentium(R) 4 CPU c. SCSI Device : SATA WDC, 80 GB d. USB Controler : VIA Technologies, Inc. USB 2.0 e. IDE Device : COMBO ASUS f. RAM : 1 GB VISIPRO g. Audio Device : VT1708/A h. Ethernet Controler : D-Link System,Inc. RTL8139 Ethernet i. Motherboard : Asus 3.3.3 Spesifikasi Komponen Jaringan Untuk membangun jaringan cluster, VIA Technologies, Inc.

dibutuhkan perangkat fisik jaringan, seperti: a. Gigabit NIC card dengan PXE Support, digunakan untuk booting jaringan pada proses penginstalan compute node.

IMPLEMENTASI DAN PENGUJIAN

4.1 Instalasi Rocks clusters Untuk proses instalasi pada rocks clusters mempunyai sedikit perbedaan daripada instalasi pada distro Linux lainnya, namun setelah proses instalasi selesai tampilannya murni tampilan CentOS, distro turunan dari Linux Redhat dan tentunya menggunakan kernel dari RedHat 5. Untuk detail cara penginstalan bisa dilihat pada lampiran. 4.2 Administrasi Frontend Gambar 4.1 Informasi Cluster Untuk administrasi frontend, pada awal booting silahkan ketik perintah build pada komputer yang ingin kita buat frontend segera setelah booting awal dari CD ROM, langkah-langkahnya sama bisa di lihat dalam lampiran instalasi. Setelah diinstal, maka sesuaikan konfigurasi DNS sesuai kebutuhan. 4.2.1 Konfigurasi DNS Server DNS Server di rocks cluster konfigurasinya agak sedikit berbeda dengan konfigurasi DNS pada umumnya, dimana FQDN atau nama domain harus dibuat pertama kali kita instal frontend, jika kita mengubahnya secara manual setelah di instal maka konfigurasi dipastikan tidak akan berjalan, dengan kata lain server cluster akan mati Cluster Status is Down. Karena DNS ini secara otomatis akan terintegrasi dengan berbagai modul penting dalam sistem cluster seperti, Xen, SGE, NFS, AutoFS, Apache dan modul penting lainnya. Berikut ini adalah proses pembuatan DNS Server: Pastikan ketika menginstal frontend, pada jendela informasi cluster sudah sesuai dengan domain yang ingin kita ingin buat. Dalam kasus ini masukan pada Fully-Qualified Host Name dengan nama cluster.lab.politel.ac.id. Jadi nantinya tidak akan mengalami masalah jika kita ingin mengubah root domainnya, misal diganti dengan .com, .net.id. Isikan juga cluster name sesuai kebutuhan, pada proyek akhir ini diberi nama Lab-Cluster. 4.2.2 Menambah Paket Untuk menambah paket, cara termudah adalah memakai yum, yang dengan otomatis bisa mengunduh dan memasang paket dari repositori online. Kemudian tambahkan repositori yang akan dipakai dengan mengedit file /etc/yum.conf, tambahkan [oss-tf] name=OSS Centos 5.3 baseurl=ftp://oss.tf.itb.ac.id/repository/c entos/5.3/os/x86_64/ Selanjutnya tinggal memanggil # yum repolist # yum update # yum install mc 4.2.3 Unduh Paket Untuk mengunduh paket ke frontend, cara mudah adalah pakai yum. Pasang dulu plugin nya. # yum install yum-downloadonly Selanjutnya tinggal download ke laci baku, yaitu: /export/rocks/install/contrib/5.3/x86_64/RPMS

#cd /export/rocks/install/contrib/5.3/x86_64/RPM S # yum update mc -y --downloadonly -downloaddir=. 4.2.4 Menghapus Paket

<package>pvm</package> Setelah itu buat distribusi baru dengan perintah # cd /export/rocks/install # rocks create distro Reinstall Seluruh Compute Node

Jika dalam kondisi normal ketikkan perintah berikut: # rpm -e nama_paket Jika sulit untuk di uninstall menghapusnya dengan: maka bisa

Cara paling aman untuk reinstall semua compute node adalah menggunakan SGE: # /opt/gridengine/examples/jobs/sgereinstall.sh Perintah ini akan menyisipkan pekerjaan prioritas tinggi ke semua node, yang segera akan dieksekusi setelah node yang bersangkutan menyelesaikan pekerjaan sebelumnya. Jika langkah di atas kurang meyakinkan, lihat status compute node sebagai berikut: # rocks list host boot

# rpm -e --allmatches --nodeps nama_paket

4.3 Administrasi Compute Node 4.3.1 Instalasi Compute Node Instalasi compute node sangat mudah dilakukan jika seluruh node dapat boot dari network menggunakan PXE. Untuk proses yang lebih detail, silahkan baca pada halaman lampiran. 4.3.2 Memasang File untuk Semua Node Jika ada file yang akan terpakai di seluruh node, aplikasi maupun data, bisa diletakkan di folder /share/apps. # cd /share/apps # cp -a $HOME/myapp Menambah Paket ke Semua Compute Node Secara default semua paket sudah ada di folder, /export/rocks/install/contrib/5.3/x86_64/RPMS, tinggal dibuat file konfigurasi baru. # cd /export/rocks/install/siteprofiles/5.2/nodes # cp skeleton.xml extend-compute.xml Pada file extend-compute.xml, daftarkan paket dengan menyunting / menambahkan baris:

4.4 4.4.1

Pengujian Cluster Pengujian Sistem dengan Ganglia

4.4.1.1 Sistem Cluster Setelah Digabungkan dengan Compute Node Secara default jika semua konfigurasi pada cluster kita sudah benar di frontend maka ganglia sudah bisa di akses dengan semua fitur yang ditawarkan dalam hal monitoring sistem cluster.

Gambar 4.2 Ganglia Monitoring Sistem Secara default akan terlihat semua resource yang ada di sistem, tab metric menunjukkan

berdasarkan apa sistem di monitoring, dapat di pilih kategorinya. Untuk lebih detail melihat status Cluster kita bisa memilih Cluster Top yang menampilakan proses informasi dari setiap node yang ada di sistem cluster. Berikut ini detail informasi yang bisa didapatkan: TN = lama dari informasi yang ada di sistem dalam satuan detik. HOST = node dalam cluster dimana proses ini berjalan. PID = Process ID atau alamat proses, sama seperti PID di windows atau sistem Linux pada umumnya. USER = username dari proses yang berjalan. CMD = perintah dari proses tanpa argumen. %CPU = presentase dari CPU yang tersedia yang menampung proses sistem yang sedang berjalan. %MEM = presentase memori fisik yang tersedia untuk menangani proses yang ada. SIZE = ukuran kapasitas "text" memory segment dari proses dengan satuan kilobytes. DATA = ukuran alokasi memori secara dinamik dengan satuan kilobytes. Bisa didefiniskan sebagai resident atau shared size, resident adalah jumlah total memori fisik yang digunakan, dan shared bisa dilihat di bawah ini. SHARED = ukuran memori yang digunakan bersama yang digunakan dalam proses dengan satuan kilobytes. VM = ukuran total dari memori virtual yang digunakan oleh proses. Gambar 4.4 Ganglia Host Report Dalam tampilan gambar di atas menunjukkan bahwa cluster lab sudah berjalan normal This host is up and running. Dapat dilihat tampilan List Informs Detail mengenai cluster kita mulai dari hari terakhir mengaktifkan cluster, tipe perangkat hardware, jumlah prosesor, dan yang lainnya. 4.4.1.2 Pengujian dengan Compute Node Setelah semuanya terinstal dengan baik maka akan muncul tampilan gambar di bawah ini, masukkan saja dengan login sebagai root dan Gambar 4.3 Monitoring Phpsysinfo Phpsysinfo ditunjukkan untuk menampilkan detail informasi sistem dalam bentuk tabel yang di integrasikan dengan PHP, akan lebih mudah memantau resource cluster, apakah berjalan normal atau ada masalah, semua nya bisa di akses pada fitur ganglia web monitoring.

password sama seperti password root di frontend.

dapat mengaktifkan service nya saja dengan perintah: #/etc/cron.daily/tripwire Lalu arahkan alamat di http://10.1.1.1/tripwire, http://lab.politel.ac.id/tripwire browser ke atau

Gambar 4.5 Login Compute Node Setelah semua terinstal dengan benar untuk memastikan compute node dengan frontend sudah terintegrasi, silahkan pilih tab Physical View pada ganglia monitoring system sehingga muncul tampilan seperti di bawah ini.

Gambar 4.8 Tripwire 4.4.3 Pengujian DNS

Gambar 4.6 Tampilan Physical View Ganglia Untuk lebih memastikannya lagi bisa di lihat di menu ganglia lainnya yaitu Cluster Top yang isinya seputar komputasi perangkat yang terhubung dalam sistem cluster, berikut tampilannya.

Untuk menguji DNS telah berjalan dengan benar, tinggal mengarahkan alamat ke web browser http://cluster.lab.politel.ac.id maka secara otomatis sistem akan mengarahkan ke alamat http://cluster.lab.politel.ac.id/wordpress, karena telah diketahui bersama sistem cluster yang digunakan sudah satu paket dengan wordpress. Untuk menambah fitur, tampilan posting dan lain sebagainya silahkan bisa di ubah menggunakan akun standar login ke wordpress, masukkan username admin dan password menyesuaikan dengan password user root system.

Gambar 4.7 Tampilan Cluster Top Ganglia 4.4.2 Pengujian Tripwire

Pengujian tripwire sebenarnya sudah langsung dapat dijalankan, adapun jika belum berjalan,

--prefix=$HOME/hpl/atlas \ # path yang digunakan Gambar 4.9 Tampilan Server Cluster dari Client --nof77 \ 4.5 Instalasi High Performance Linpack (HPL) dan ATLAS Download paket yang terbaru dari HPL dan ATLAS yang dapat di peroleh dari url berikut: http://sourceforge.net/projects/mathatlas/files/Stable/3.8.3/ http://www.netlib.org/benchmark/hpl/hpl2.0.tar.gz Setelah kedua paket tersebut selesai di unduh, buat sebuah folder baru, kemudian kedua paket tersebut di ekstrak didalam satu folder tersebut: # mkdir hpl # cd hpl # tar xf atlas3.8.3.tar.gz # tar xf hpl.tgz Perintah tar diatas adalah program yang digunakan untuk menyimpan dan mengekstrak file dari bentuk archive yang dikenal dengan nama tarfile. Sedangkan opsi xf itu adalah untuk mengekstrak dan menggunakan archive file. # cd ATLAS Buatlah sebuah direktori baru dan jalankan configure script: # mkdir Linux_Atom330 # cd Linux_Atom330 # ../configure b 32 # Jenis platform 32-bit -t -1 \ # -1 memberi tahu ATLAS untuk mendeteksi secara otomatis jumlah thread yang digunakan -Si cputhrchk 0 \ # Jangan memeriksa CPU throttling ---------------------------------------------------------------WR11C2R4 5000 64 2 3 8.18 1.019e+01 ======================================= T/V N NB P Q Time Gflops ---------------------------------------------------------------WR11C2R4 10000 64 2 3 55.34 1.205e+01 ======================================= T/V N NB P Q Time Gflops --cc=/usr/bin/gcc \ -C ic /usr/bin/gcc # FORTRAN # gunakan gcc # gunakan gcc

Configure script tersebut akan membutuhkan waktu yang lama, setelah hal itu selesai, lakukan build dan periksa libraries yang digunakan. # make build && make check && make time && make install Setelah proses tersebut selesai, dengan asumsi tidak ada terdapat pesan error, kemudian periksa libraries yang terdapat pada ATLAS tersebut. Kemudian dapat dilanjutkan dengan HPL yang sudah di extrak sebelumnya. # ls ~/hpl/atlas/include atlas cblas.h clapack.h

$ cd ~/hpl/hpl-2.0 Berikut ini adalah hasil penggunaan software benchmark linpack: ======================================= T/V N NB P Q Time Gflops ---------------------------------------------------------------WR11C2R4 1000 64 2 3 0.18 3.647e+00 ======================================= T/V N NB P Q Time Gflops

---------------------------------------------------------------WR11C2R4 15000 64 2 3 165.26 1.362e+01 =======================================

T/V

NB P Q Time

Gflops

---------------------------------------------------------------WR03R2C8 45000 64 4 4 1128.05 5.386e+01 T/V N NB P Q Time Gflops ------------------------------------------------------------------------------------------------------------------------------WR11C2R4 20000 64 2 3 380.69 1.401e+01 ======================================= T/V N NB P Q Time Gflops ------------------------------------------------------------------------------------------------------------------------------WR11C2R4 25000 64 2 3 712.37 1.462e+01 T/V =================================== ---------------------------------------------------------------Dari hasil Benchmark di atas dapat dibentuk grafik yang linear yang bergerak keatas, berikut adalah grafiknya: WR03R2C8 60800 64 4 4 2666.87 5.619e+01 ======================================= 16 14 12 10 8 6 4 2 0 Dari hasil benchmark tersebut, berikut ini adalah grafik yang didapatkan:
60 50 Gfloop 53.86 34.32

T/V

NB P Q Time

Gflops

--------------------------------------------------------------WR03R2C8 58600 64 4 4 2399.42 5.591e+01

NB P Q Time

Gflops

13.6 12.05 10.1

14.62 14.01

Gfloop

55.91

56.19

3.64

40 30 20 10 0 10000 45000 58600 Jumlah Matriks 60800

1000 5000 10000 15000 20000 25000 Jumlah Matriks Gambar 4.10 Grafik hasil cluster lab Sedangkan hasil benchmark yang di bawah ini adalah benchmark yang menggunakan software yang sama dan memiliki spesifikasi yang lebih tinggi, berikut ini adalah datanya: ======================================= T/V N NB P Q Time Gflops ---------------------------------------------------------------WR03R2C8 10000 64 4 4 19.43 3.432e+01 ----------------------------------------------------------------

Gambar 4.11 Grafik hasil cluster lain

4. 7 Troubleshooting Implementasi Rocks clusters 4.7.1 Masalah Pertama

4.7.3

Masalah Ketiga

Gambar 4.14 Error Setelah Proses Instalasi Compute Node Gambar 4.12 Error Ketika Memulai Proses Instalasi Compute Node Tampilan error di atas menunjukkan bahwa hardisk kita tidak memungkinkan untuk di instal rocks clusters, perlu di ingat untuk dijadikan compute node hardisk harus benar-benar kosong tanpa partisi sedikitpun untuk mempermudah instalasi melalui booting jaringan. 4.7.2 Masalah Kedua 5.1 Kesimpulan Dari hasil implementasi analisis terhadap hasil pengujian sistem maka didapatkan beberapa kesimpulan antara lain: 1. Komputer cluster berhasil dibangun dengan menggunakan 6 PC. Gambar 4.13 Error Ketika Proses Instalasi Compute Node Ketika muncul tampilan error di atas, artinya proses instalasi compute node berjalan lama bahkan sampai lebih dari 30 menit, ini menandakan bahwa kemungkinan besar hardware compute node tidak mendukung secara penuh instalasi PXE Booting. Oleh karenanya sangat disarankan untuk memilih spesifikasi yang sama antar compute node, mulai dari motherboard sampai memori dan lain sebagainya. 2. Dari hasil pengukuran perhitungan matriks dengan menggunakan software linpack pada system operasi rocks cluster, hasil Error dengan tampilan di atas menunjukkan bahwa kapasitas memori tidak mencukupi, harus ingat bahwa batas minimal memori yang dibutuhkan compute node adalah 1Gb. Jika memori sudah memenuhi kriteria di atas tapi masih error maka coba pindahkan slot memori ke slot yang lain dan pastikan memori terpasang dengan benar, longgar sedikit saja compute node akan menolaknya. 5. PENUTUP

perhitungan yang diperoleh untuk dengan enam core paling besar adalah 14.62 Gfloop. 5.2 Saran Untuk pengembangan bisa dibangun dengan jumlah node yang lebih banyak, serta spesifikasi yang lebih tinggi sehingga dapat menghasilkan output yang lebih baik lagi. Selain itu, dapat di aplikasikan untuk untuk rendering 3D.

6 [1]

REFERENSI Tim Wahana Komputer, 2005, PC

Cluster dengan OpenMosix, Andi, Yogyakarta. [2] __________, 2008, The Possible Are

Infinite - PC Cluster System, FUJITSU [3] __________, 2009, Apache Web Server,

Jurusan Teknik Informatikan ITS Surabaya [4] __________, 2010, HPC Roll: Users Guide,

University of California [5] __________, 2010, Base Roll: Users Guide,

University of California. [6] http://computational.engineering.or.id/Rocks_C luster [diakses tanggal 28 April 2010 jam 10.00] [7] http://computational.engineering.or.id/Dozen_ 2010 [diakses tanggal 28 April 2010 jam 10.00]

Anda mungkin juga menyukai