Multiprocessor - Time Sharing Arsitektur dan Organisasi Komputer

Disusun Oleh:

 Iis Ii Wid Widya H Harmoko k  Ronal Chandra  Yoga Prihastomo

Magister Ilmu Komputer

Universitas Budi Luhur

Agenda g
Agenda presentasi adalah sebagai berikut: • Terminologi • Klasifikasi Flynn • Komputer MIMD • Performa Multiprocessor • Time Sharing • Kesimpulan p

Terminologi-1 g  Parallel Processing Pemrosesan informasi yang menekankan pada pengolahan elemen-elemen elemen elemen data dari satu atau lebih proses untuk memecahkan masalah tunggal.  Komputer Paralel Komputer dengan beberapa prosesor yang mampu melaksanakan pemrosesan paralel  Super S komputer k t Komputer serba guna yang mampu menyelesaikan masalahmasalah dengan kecepatan komputasi yang luar biasa. l l Terminologi-2 g  Data Parallelism Penggunaan beberapa unit fungsi untuk melaksanakan suatu operasi yang y g simulatan p pada beberapa p elemen dari suatu set data. Pipelining dan data parallelism merupakan cara untuk meningkatkan konkurensi. dan data-paralel (c) ditunjukkan dengan ilustrasi berikut. berikut A. pipeline (b).w1. Perbandingan antara mesin sekuensial (a).B.…: data A B C (a) W2 W1 A B C A B C ( ) (c) W3 W1 A B C (b) W4 W3 W2 W1 W4 W2 . Semua super komputer kontemporer adalah komputer paralel. biasa dibandingkan dengan komputer-komputer lain pada masa yang sama.C : langkah masing-masing yang memerlukan satu satuan waktu w1.

Event bisa berupa kejadian apa saja yang merupakan bagian pelaksanaan suatu instruksi. dalam interval waktu yang sama. Terminologi-4 g 4 instruksi 2 1 a pipelining i li i b waktu 2 1 a b multiprogramming waktu program instruksi 2 1 a b multiprocessing kt waktu .  Multiprocessing Pelaksanaan/pengeksekusian beberapa kejadian (event) dari satu atau lebih program secara bersamaan dengan menggunakan beberapa pemroses. instruksi yang akan dikerjakan oleh komputer dibagi menjadi beberapa subsiklus instruksi yang lebih kecil.Terminologi-3 g 3  Pipeline Pada konsep pipeline/pipelining. p  Multiprogramming Pelaksanaan beberapa program. Beberapa sub siklus instruksi dari fungsi atau program yang berbeda dapat diproses secara bersamaan (secara paralel) pada perangkat keras yang y g terpisah.

Belum ada penerapan dari komputer jenis ini 4. Single Data stream) Instruksi pada komputer SISD dijalankan satu-persatu. MISD (Multiple M lti l I Instruction t ti stream. seperti mainframe dan komputer super. IP : Instruction I i Processor P DE : Data Processor memori (M) IP DP DP DP Klasifikasi Flynn-2 y IP 3. MIMD (Multiple Instruction stream. Multiple Data stream) Suatu instruksi pada komputer SIMD dilaksanakan satu persatu namun mampu bekerja pada beberapa aliran data sekaligus. SIMD (Single Instruction stream. Contoh : prosessor Array Ket. t Kelompok ini meliputi komputer multiprocessor. IP M IP MUX DP IP DP M IP DP DP DP . Single Data stream) Melaksanakan beberapa operasi instruksi bersamaan pada satu aliran data.Klasifikasi Flynn y 1. dimana masingmasing instruksi dapat beroperasi pada d b beberapa b aliran li d data. Multiple Data stream) Eksekusi beberapa instruksi secara paralel. SISD (Single Si l I Instruction i memori (M) CPU stream. Contoh : komputer Von Neuman 2.

komputer paralel MIMD dibagi menjadi 2 kelompok besar. t d data t d dan program di disimpan i pada d suatu t memori i bersama dan masing-masing processor (dalam suatu komputer paralel) saling berkomunikasi melalui memori tersebut. dengan T1: waktu yang diperlukan 1 processor. . p : waktu yang diperlukan dengan p processor S ( Speedup )  T1 Tp  Effisiensi dari suatu algoritma paralel yang dijalankan pada sistem multiprocessor dengan p processor adalah : Speedup/ p. Pada SMP. .Komputer p MIMD Memori bersama (shared memory) Komputer MIMD Memori tersebar (distributed memory) • S Symmetric multiprocessor l (S ) (SMP) Nonuniform f Memory y Access (NUMA) Clusters • • • Berdasarkan cara berkomunikasinya. Performa Multiprocessor p  Ukuran Uk performa f atau t ki kinerja j multiprocessor lti yang paling li penting adalah speedup (Sp) . dengan p = jumlah processor. yaitu : komputer paralel dengan memori bersama dan komputer paralel memori t tersebar. b Pada P d kelompok k l k pertama. Sedangkan pada NUMA. Cl Cluster dibentuk dib k dari d i kumpulan k l beberapa b b komputer k dengan d processor tunggal l atau beberapa SMP yang saling dihubungkan dan dapat bekerja bersama-sama sebagai komputer tunggal. waktu akses memori untuk lokasi yang tidak sama dapat berbeda. beberapa b b p prosessor p b berbagi b g memori y yang g sama melalui suatu b bus dengan g waktu akses ke berbagai lokasi memori relatif sama untuk masing-masing processor. yaitu perbandingan waktu yang diperlukan untuk menjalankan suatu aplikasi dengan processor tunggal (dari suatu komputer paralel ) dengan waktu untuk menja-lankan aplikasi yang sama dengan p processor.

p : jumlah prosessor. dimana 0≤ f ≤ 1.adanya overhead yang disebabkan oleh inisialisasi.tidak semua bagian dalam program dapat diparalelkan. setara • Untuk mencapai speedup yang baik. hukum h k A Amdahl d hl dinyatakan sebagai berikut : S max  1 1 f  f  p dengan. f : bagian/fraksi dari operasi komputasi yang dapat dikerjakan secara paralel (dalam terminologi waktu). sinkronisasi. komunikasi koherensi cache. . Smax : adalah speedup maksimum yang dapat dicapai oleh komputer paralel dengan p prosessor. fraksi komputasi yang dijalankan secara sequensial harus sangat kecil.Performa Multiprocessor-2 p  Tipe Speedup Tujuan sistem yang scalable adalah speedup linier (S=P). • Hukum ini mengasumsikan bahwa tiap prosessor melakukan sejumlah komputasi paralel yang setara. komunikasi. namun sulit diwujudkan karena: . beban (S : sppedup dan P : jumlah processor) S Superlinier S > P Linier S = P Sublinier S < P P Performa Multiprocessor-3 p 3 AMDAHL • Dalam D l terminologi i l i sistem i komputer k multiprosessor li . Tidak akan terlalu bermanfaat menggunakan sistem multiprosessor atau komputer paralel untuk mengerjakan aplikasi yang memiliki bagian sequensial yang besar. p p  f ( p  1) . dan ketidakseimbangan beban.

7. dimana tiap pemakai mempunyai satu terminal on-line dengan pemroses hanya memberi b il layanan pada d pemakai k i yang aktif k if secara bergantian dengan cepat. berapakah speedup (S) dan effisiensinya ? Jawab : p p( (S) ) = T1 / T4 4= 8/2=4 Speedup Effisiensi = S / p = 4 / 5 = 0.63) = 3. Jawab : S max (64 ) = 64 / (64 – 0. paralel Berapakah speedup maksimum yang dapat diharapkan dari sistem tersebut dan bandingkan apabila aplikasi yang sama dijalankan pada komputer paralel dengan 16 prosessor. .22 S max (16) = 16 / (16 – 0. Pemakai akan merasa dilayani terus menerus. menerus padahal sebenarnya digilir persatuan waktu yang cukup singkat.7. dengan memberikan potongan waktu pada masing-masing tugas. Time Sharing-1 g  Time Ti sharing h i adalah d l hi inovasi i yang memungkinkan ki k komputer-komputer besar memproses banyak tugas secara simultan.  Varian dari multiprogramming.91 Ternyata perubahan speedup jauh lebih kecil dibanding peningkatan jumlah prosessor yang digunakan.8  Dimisalkan suatu aplikasi tertentu dijalankan pada komputer paralel dengan 64 prosessor dan 70% komputasi dari aplikasi tersebut dapat dikerjakan secara paralel. dan beralih dari satu tugas ke tugas lainnya dengan cepat.Performa Multiprocessor-4 p 4 Case  Apabila A bil waktu kt yang di diperlukan l k untuk t k mengeksekusi k k i suatu t program aplikasi lik i d dengan suatu t algoritma sequensial dengan prosessor tunggal yang merupakan bagian dari suatu komputer paralel adalah 8 detik dan waktu yang diperlukan untuk mengeksekusi program yang sama dengan komputer paralel yang terdiri dari 5 prosessor adalah 2 detik.15) = 2.

Time Sharing-2 g Perbedaan Time Sharing dengan Batch Multiprogramming Batch Multiprogramming Principal objective Source of directives to operating system Maximize processor use Job control language commands provided with the job Time Sharing Minimize response time Commands entered at the terminal Time Sharing-3 g 3 Skema SMP Processor L1 Cache Processor L1 Cache Processor L1 Cache L2 Cache L2 Cache L2 Cache BUS S I/O Subsystem Main Memory I/O Adapter I/O Adapter I/O Adapter Ad .

Time Sharing-4 g 4 Skema SMP  Time Ti shared/common h d/ b (bus bus (b bersama) b ) Seperti ditunjukkan pada gambar skema organisasi komputer SMP. Komunikasi on-line ( (interaktif) ) antara user dan sistim: j jika OS telah selesai mengeksekusi satu perintah. fleksibel handal (reliability). (simplicity) fleksibel. tapi p p dari terminal user On-line system harus tersedia bagi user yang akan mengakses data dan kode. Kekurangan: koherensi cache. . Kelebihan : sederhana (simplicity). menunggu perintah berikut bukan dari “card reader”. SMP Pada organisasi ini ini. semua prosessor dan modul I/O berbagi bus untuk mengakses memori utama. cache Time Sharing-5 g5  CPU melakukan l k k multiplex lti l pada d beberapa b b jobs j b yang b berada d      di memory (dan disk) CPU hanya dialokasikan kepada jobs yang telah siap dan berada di memori Besar memori masih sangat terbatas: Pada job dilakukan swapped in dan out dari memory ke disk.

cs. Prentice Hall Website: W b it  http://en. 2010. Teknik ini disebut “Time Sharing”  Dengan kata lain.toronto.wikipedia.edu/ http://www cs toronto edu/~demke/469F demke/469F.vu. maka dimungkinkan juga menyisipkan job job-job job interaktif yang berasal dari beberapa user yang berbeda melalui sistem jaringan terminal.06/lectures. perbedaanya adalah d l h bahwa b h pada d time-sharing i h i job-job j b j b yang di disisipkan i i k (interleaved) berasal dari user yang berbeda-beda melalui jaringan terminal.html . teknik time-sharing memiliki basis yang sama dengan teknik multiprogramming.nl/~ast/books/book_software.org/wiki/Flynn%27s_taxonomy  http://www.shtml 06/lectures shtml  http://www. Computer Organization And Architecture Designingfor Performance. William. terminal Referensi Buku:  Stalling.cs.Kesimpulan p  Dengan D memanfaatkan f tk k kemampuan sistem i t operasi i untuk t k melakukan multiprogramming (multitasking) .

Sign up to vote on this title
UsefulNot useful