Anda di halaman 1dari 13

MAKALAH ORGANISASI KOMPUTER

REVIEW JURNAL

OLEH : AAN RIZAL

NIM : 150402011

JURUSAN SISTEM INFORMASI


FAKULTAS ILMU KOMPUTER
UNIVERSITAS MUHAMMADIYAH RIAU
2016
1. Pendahuluan

Menurut Arie S. M. Lumenta pada jurnalnya yang berjudul Organisasi Cache


Memori Idealnya sebuah prosessor tidak membuang waktuuntukmengakses
instruksidandatadari memoriutama. Sistemmemoriutamadituntut
untuksecepatmungkinmenyediakan sebuah operand bagiprosessor disertaidengan
kemampuan menyediakan sejumlah data sebanyak yang dapat disediakan per satuan
waktu.Semakincepatprosessormengolah data, makasemakin sulitbagisistem memoriutama
untukmensuplai operanddalam satuataudua siklus. Oleh sebab itu diperlukan suatu cara
untukmempercepat waktuaksesprosessorke memoriutama

Penulis menjelaskan untukmeningkatkan kecepatan dalamhal menyediakan


datadanintstruksibagiprosessor, memori utamadibatasasi olehbatasan rancangan
elektronikdan masalah packaging.Karena itu perlu dicarisolusilainuntukmenangani
masalah tersebut.Salahsatucarayangdigunakan adalah denganmembuat
suatumemoricacheyang menyimpan dataatauinstruksiterbarudari memori utama
dalambentuk word-word yang dapatmempercepataksesprosessorkememori.

Menurut Iis Widya Harmoko dalam jurnalnya tentang Arsitektur dan


Organisasi KomputerMain Memory (memory utama) atau lebih dikenal sebagai memori
adalah sebuah array yang besar dari word atau byte, yang ukurannya mencapai ratusan,
ribuan, atau bahkan jutaan. Setiap word atau byte mempunyai alamat tersendiri.
Main memory berfungsi sebagai tempat penyimpanan yang akses datanya digunakan oleh
CPU atau perangkat I/O. Main-memory termasuk tempat penyimpanan data yang
sementara (volatile), artinya data dapat hilang begitu sistem dimatikan.Sistem operasi
bertanggung jawab atas aktivitas-aktivitas yang berkaitan dengan manajemen memori
seperti: menjaga track dari memori yang sedang digunakan dan siapa yang
menggunakannya; memilih program yang akan di-load ke memori; dan mengalokasikan
dan mendealokasikan memoryspace sesuai kebutuhan.

Penulis menganalogikan Main memory sebagai kumpulan kotak-kotak yang masing


dapat menyimpan suatu penggal informasi baik berupa data maupun instruksi. Umumnya1
byte memory terdiri dari 8 bit dan tiap bit diwakili oleh 1 atau 0. Kombinasi bit dalam1
byte tersebut membentuk suatu kode yang mewakili isi dari lokasi memory.Kode yang
digunakan untuk mewakilinya tergantung dari komputer yang digunakan, dapat
membentuk sistem kode BCD (Binary-Coded Decimal), sistem kode SBCDIC (Standard
Binary Coded Decimal Interchange Code), sistem kode EBCDIC (Extended Binary Coded
Decimal Interchange Code) atau sistem kode ASCII (American Standard Code for
Information Interchange).

Misalnya suatu komputer mempunyai kapasitas memory 256 KB atau 262.144 byte,
yang berarti mempunyai 262.144 lokasi memori. Alamat dari memori ini adalah bernomor
000000 sampai dengan 262.143.

2. DefinisiCacheMemori

2.1 Menurut Arie S. M. Lumenta

Dalam hirarkimemori posisicachememory adalah satulevel dibawahregister seperti


tampak padaGambar1 berikut.

Gambar1. HirarkiMemori

semakin keatas ukuran semakin kecil dan kecepatan semakin cepat serta harga semakin
mahal. Sebaliknya, dari atas kebawah ukuran semakin besar dan kecepatan makin lambat
serta harga makin murah.

Cache memory adalah memori berukuran kecil, buffer memori


berkecepatantinggi yang digunakan komputer untuk menampung sebagian isi memori
utama yang sedang digunakan [Smith, 1982].
2.2 Menurut Iis Widya Harmoko

Cachememorymerupakan lokasidatasementaraantaraprosesordenganmain
memory.Penempatancachememoryditujukanuntukmengurangi gapantara
kecepatanprosesordengankecepatanmainmemory.Gambar2.1.di bawahini menunjukkan
posisicachememoryyangdiletakkanantaraprosesor(CPU)dengan
mainmemory.Sedangkangambar2.2.memperlihatkansisteminterkoneksiuntukcache
memory.

Wo Cache Blo Transfer


CPU rd ck
Memory
Transf
Gambar2.1.GambarPosisi
er CacheMemorypadaSistemMemory.

Gambar2.2.GambarSistem Interkoneksi yang terkait dengan


cache memory
Penulis menjelaskan bahwa Cache berasal dari kata cash.
Dari istilah tersebut cache adalah tempat menyembunyikan atau
tempat menyimpan sementara. Sesuai definisi tersebut cache memory
adalah tempat menympan data sementara. Cara ini dimaksudkan
untuk meningkatkan transfer data dengan menyimpan data yang
pernah diakses pada cache memory tersebut, sehingga apabila ada
data yang ingin diakses adalah data yang sama maka maka akses akan
dapat dilakukan lebih cepat. Cache memory ini adalah memori tipe
SDRAM yang memiliki kapasitas terbatas namun memiliki kecepatan
yang sangat tinggi dan harga yang lebih mahal dari memori utama.
Cache memory ini terletak antara register dan RAM (memori utama)
sehingga pemrosesan data tidak langsung mengacu pada memori
utama.

Karakteristik cache memory adalah sebagai berikut:

 Kapasitas relatif lebih kecil dari main memory, tetapi memiliki kecepatan yang relativ
lebih tinggi dibanding main memory;
 Cache memory merupakan suatu memori buffer (salinan data) bagi memori utama;
 Meskipun cache menggunakan informasi yang tersimpan dalam memori utama, tetapi ia
tidak berhadapan secara langsung dengan memori utama;
 Word yang disimpan didalam cache memory adalah word yang diambil dari main
memory, yang dikerjakan sesuai perintah CPU.

2.2.1 Level Cache Memory

Hingga saat ini, cache memory terbagi atas tiga level yaitu L1, L2 dan L3. Cache
memory memori level 1 (L1) adalah cache memory yang terletak dalam prosesor (internal
cache). Cache memory ini memiliki kecepatan akses paling tinggi dan harganya paling
mahal. Ukuran memori berkembang mulai dari 8KB, 64KB dan128KB. Cache memory level
2 (L2) memiliki kapasitas yang lebih besar yaitu berkisar antara 256KB sampai dengan 2MB.
Namun, cache memory L2 ini memiliki kecepatan yang lebih rendah dari cache memory L1.
Cache memory L2 terletak terpisah dengan prosesor atau disebut dengan external cache.
Sedangkan cache memory level 3 hanya dimiliki oleh prosesor yang memiliki unit
lebih dari satu misalnya dualcore dan quadcore. Fungsinya adalah untuk mengontrol data
yang masuk dari tembolok L2 dari masing-masing inti prosesor.

Level 2 atau L2 cache merupakan bagian dari strategi penyimpanan multi level untuk
meningkatkan performa komputer. Terdapat tiga level cache yang digunakan pada komputer,
yaitu L1, L2 dan L3 cache. Tiap-tiap cache tersebut menjembatani jarak (gap) diantara
processor yang sangat cepat, dengan memori RAM (Random Access Memory) yang jauh
lebih lambat.

Sementara desainnya terus mengalami perubahan, L1 cache biasanya telah terintegrasi (built
in) ke dalam processor, sementara L2 cache biasanya terintegrasi pada motherboard
(bersamaan dengan L2 cache). Namun, beberapa processor kini menggabungkan L2 cache
serta L1 cache, dan bahkan beberapa diantaranya juga menggungkan L3 cache. Kecepatan
yang paling tinggi terdapat pada L1 cache, kemudian menurun pada L2 dan L3 cache. Namun
kebalikannya, semakin besar angka cache, maka semakin besar pula kapasitas penyimpanan
datanya.

Gambar 2.3. Gambar Contoh Level Cache pada Processor.

Tugas dari cache processor adalah untuk mengantisipasi data request, sehingga ketika
pengguna mengakses sebuah program yang sering digunakan, sebagai contohnya, instruksi-
instruksi yang dibutuhkan untuk menjalankan program tersebut telah siap digunakan,
disimpan pada cache. Ketika hal ini terjadi, CPU dapat memproses request tanpa adanya jeda
(delay), sehingga dapat meningkatkan performa komputer secara drastis.

CPU pertama-tama akan memeriksa L1 cache, diikuti dengan L2 dan L3 cache. Jika
processor telah menemukan bit data yang dibutuhkan, maka disebut dengan cache hit.
Namun jika cache tidak menyediakan bit data yang dibutuhkan, processor mendapatkan
sebuah cache miss, dan data perlu ditarik dari RAM yang lebih lambat atau hard disk yang
juga lebih lambat.

2.2.2 Kapasitas Cache

Menentukan ukuran cache memory sangatlah penting untuk mendongkrak kinerja


komputer. Dari segi harga cache memory sangatlah mahal tidak seperti memori utama.
Semakin besar kapasitas cache tidak berarti semakin cepat prosesnya, dengan ukuran besar
akan terlalu banyak gate pengalamatannya sehingga akan memperlambat proses.

Kita bisa melihat beberapa merek prosesor di pasaran beberapa waktu lalu. AMD
mengeluarkan prosesor K5 dan K6 dengan cache memory yang besar (1MB) tetapi
kinerjanya tidak bagus. Kemudian Intel pernah mengeluarkan prosesor tanpa cache memory
untuk alasan harga yang murah, yaitu seri Intel Celeron pada tahun 1998-an hasil kinerjanya
sangat buruk terutama untuk operasi data besar, floating point, 3D. Intel Celeron versi
berikutnya sudah ditambah cache memory sekitar 128KB.Lalu berapa idealnya kapasitas
cache memory? Sejumlah penelitian telah menganjurkan bahwa ukuran cache antara 1KB
dan 512KB akan lebih optimum.

2.2.3 Ukuran Blok

Elemen rancangan yang harus diperhatikan lagi adalah ukuran blok. Telah dijelaskan
adanya sifat lokalitas referensi maka nilai ukuran blok sangatlah penting. Apabila blok
berukuran besar ditransfer ke cache akan menyebabkan hit ratio mengalami penurunan
karena banyaknya data yang dikirim disekitar referensi. Tetapi apabila terlalu kecil,
dimungkinkan memori yang akan dibutuhkan CPU tidak tercakup. Apabila blok berukuran
besar ditransfer ke cache, maka akan terjadi :
1. Blok-blok yang berukuran lebih besar mengurangi jumlah blok yang menempati cache.
Karena isi cache sebelumnya akan ditindih.

2. Dengan meningkatnya ukuran blok maka jarak setiap word tambahan menjadi lebih jauh
dari word yang diminta, sehingga menjadi lebih kecil kemungkinan- nya digunakan cepat.

Hubungan antara ukuran blok dan hit ratio sangat rumit untuk dirumuskan,
tergantung pada karakteristik lokalitas programnya dan tidak terdapat nilai optimum yang
pasti telah ditemukan. Ukuran antara 4 hingga 8 satuan yang dapat dialamati(word atau byte)
cukup beralasan untuk mendekati nilai optimum.
3. Direct Mapping (Pemetaan Langsung)
3.1 Menurut Arie S. M. Lumenta

Perpindahan informasi dari memori utama ke cachememorydiaturdalamunit-


unitblokcacheatau jalur cache [Hwang, 1993]. Direct mapping atau pemetaan langsung
adalah teknik pemetaan alamat cache memory yang relative sederhana. Blok dalam cache
yang disebut block frames dihubungkan dengan block dalam memory utama. Dimisalkan
block frames adalah B (a) Cache yang diakses dengan alamat fisik untuki=0,1,2,3,…,m
danblockdalammemory utamaadalahBj denganj=0,1,2,3,…n.Dengan direct mapping tiap
block {Bj} dipetakan langsung dengan block frame {Bi}. Diasumsikan
pulabahwan>>m,n=2sdanm=2r. Tiapblockatau block framediasumsikan
memilikibwords,dimanab=2w mengakibatkan cacheberisim.b=2r+w wordsdanmainmemory
memilikin.b=2s+wwordsyangdialamati oleh (s+w)bits.Ketika blockframe dibagimenjadi
v=2thimpunan,makablockuntuk tiaphimpunan adalahk=m/v=2r-t

Organisasi direct mapping cache seperti yang diGambarkan pada Gambar 5, didasarkan
pada sebuah pemetaan langsung oleh n/m=2s-r block memory yang dipisahkan dengan
jarak yang sama ke satu block frame dalam cache. Pemetaanblock Bj ke block frame Bi
mengikuti aturan

Bj → Bi jika i=j (modulo m)

Organisasi direct mapping ini sangat kaku tetapi merupakan organisasi cache
memory yang paling sederhana yang dapat diimplementasikan.
3.2. Menuru Iis Dwi Harmoko

Karena saluran cache memory lebih sedikit dibandingkan dengan blok memori
utama, maka diperlukan algoritma untuk pemetaan blok memori utama ke dalam saluran
cache memory. Pemilihan terhadap fungsi pemetaan akan sangat menentu- kan bentuk
organisasi cache memory.

Telah kita ketahui bahwa cache memory mempunyai kapasitas yang kecil dibandingkan
memori utama. Sehingga diperlukan aturan blok-blok mana yang diletakkan dalam cache
memory. Terdapat tiga metode, yaitu pemetaan langsung (direct mapping), pemetaan
asosiatif, dan pemetaan asosiatif set.

1. Direct Mapping

Setiap blok pada main memory dipetakan dengan line tertentu pada cache.

i = j modulo C

di mana i adalah nomor line pada cache yang digunakan untuk meletakkan blok main
memory ke-j.

Jika M = 64 dan C = 4, maka pemetaan antara line dengan blok menjadi seperti berikut :

Line 0 can hold blocks 0, 4, 8, 12, ...

Line 1 can hold blocks 1, 5, 9, 13, ...

Line 2 can hold blocks 2, 6, 10, 14, ...

Line 3 can hold blocks 3, 7, 11, 15, ...

Pada cara ini, address pada main memory dibagi 3 field atau bagian, yaitu:

 Tag identifier.
 Line number identifier
 Word identifier (offset)
Word identifier berisi informasi tentang lokasi word atau unit addressablelainnya dalam line
tertentu pada cache.Line identifier berisi informasi tentang nomor fisik (bukan logika) line
pada cache.Tag identifier disimpan pada cache bersama dengan blok pada line.

 Untuk setiap alamat memory yang dibuat oleh CPU, line tertentu yang menyimpan copy
alamat tsb ditentukan, jika blok tempat lokasi data tersebut sudah dikopi dari main
memory ke cache.
 Tag yang ada pada line akan dicek untuk melihat apakah benar blok yang dimaksud ada
pada line tsb.

Gambar 3.1. Gambar Organisasi Direct Mapping.

Keuntungan menggunakan Direct Mapping antara lain:


 Mudah dan murah diimplementasikan.
 Mudah untuk menentukan letak salinan data main memory pada cache.

Kerugian menggunakan Direct Mapping antara lain:

 Setiap blok main memory hanya dipetakan pada 1 line saja.


 Terkait dengan sifat lokal pada main memory, sangat mungkin mengakses blok yang
dipetakan pada line yang sama pada cache. Blok seperti ini akan menyebabkan seringnya
sapu masuk dan keluar data ke/dari cache, sehingga hit ratio mengecil. Hit ratio adalah
perbandingan antara jumlah ditemukan- nya data pada cache dengan jumlah usaha
mengakses cache.

4. Kesimpulan
Dari hasil review antara kedua jurnal diatas dapat ditarik beberapa kesimpulan baik
itu kekurangan maupun kelebihan masing-masing jurnal antara lain sebagai berikut :
 Jurnal pertama dengan penulis Arie S.M Lumenta menjelaskan secara singkat
pengertian cache memory dan menjelaskan tentang organisasi cache memory berbeda
dengan jurnal Iis Dwi Harmoko yang menjelaskan secara luas baik itu menurut
bahasa dan detail yang ada pada cache memory.
 Jurnal Iis Dwi Harmoko tidak menjelaskan tentang organisasi cache memory.
 Jurnal Arie S. M Lumenta menjelaskan secara terperinci prinsip komponen sebuah
cache memory dengan menjelaskan tentang cara kerja cache memory tersebut melalui
ilustrasi gambar.
 Penelitian yang dibangun memiliki persamaan dalam menjelaskan pengalamatan
cache memory (Direct Mapping) dengan penyampaian materi yang berbeda akan
tetapi memiliki goalatau tujuan yang sama.
 Jurnal Iis Dwi Harmoko memiliki kelebihan dalam penjelasan pengalamatan cache
memory karena menjelaskan secara rinci tentang pengalamatan dengan
menambahkan kelebihan dan kekurangan dalam menggunakan direct mapping.

Anda mungkin juga menyukai