Anda di halaman 1dari 2

1.

Sebuah memory dengan cache 64KByte dan memory utama 2GB sedangkan
ukuran Block 32 Byte. Hitunglah nomor tag bit dan besaran komparator yang
dibutuhkan oleh cache memory ?
2. Sebuah memori utama dengan ukuran 4GB, dengan cache 32MB dan besar
Block 32 bit.Jika cache mapping yang dipergunakan adalah 4-KWay set
Associate.Gambarkan mapping cache, tag bit, Set index dan BO ?
3. Jelaskan keuntungan dan kekurangan dari direct mapping, associate mapping
dan set associate mapping ?
4. Jelaskan algoritma replacement pada cache memory ?
(LRU,LSU,FIFO,MSU,Random)

Jawab:
1. Jawab :
Main Memory 2GB = 2048 Mb = 2^11
Cache Memory 64Kbyte
Ukuran Blok 32 Byte
Jumlah Blok memori = 2000 / 32
Bit offset = 64/32 = 2
2^n = 2
n=1
Mencari nilai S
Ada 32 bit, maka 2^s = 32
S=5
M = 11
Maka, nomor tag bit ialah :
T=m–s–n
T = 11 – 5 – 1
T=5
Jadi nomor tag bitnya ialah 5.
2. Dik :
Main Memory : 4Gb = 2^13, m = 13
Cache memory : 32Mb
Blok = 32
Bit Offset 32/32 = 1
2^n = 1, maka n = 0
Mencari nilai S, ada 32 bit, maka 2^s = 32, maka s = 5
3. Direct Mapping
Keuntungan :
Keuntungan dari direct mapping adalah sederhana dan murah
Kerugian :
Suatu blok memiliki lokasi yang tetap (jika program mengakses 2 blok yang di
map ke line yang sama secara berulang-ulang, maka cache-miss sangat tinggi).
Associate Mapping
Kelebihan:
Pemetaan asosiatif mengatasi kekurangan pemetaan langsung dengan cara
mengizinkan setiap blok memori utama untuk dimuatkan ke sembarang saluran
cache. Dengan pemetaan assosiatif, terdapat fleksibilitas penggantian blok
ketika blok baru dibaca ke dalam cache
Kekurangan:
Kompleksitas rangkaian yang diperlukan untuk menguji tag seluruh saluran
cache secara parallel, sehingga pencarian data di cache menjadi lama.
Set associate mapping
Keuntungan :
- Setiap blok memori dapat menempati lebih dari satu kemungkinan
nomor line (dapat menggunakan line yang kosong), sehingga
thrashing dapat diperkecil.
- Jumlah tag lebih sedikit (dibanding model associative), sehingga
jalur untuk melakukan perbandingan tag lebih sederhana.
Kekurangan :

4. Algoritma Replacement pada Cache Memory


LRU:

LRU adalah salah satu algoritma page replacement yang biasa digunakan dalam
Arsitektur Komputer, yaitu bagaimana OS melakukan manajemen memori dan
alokasi memori sehingga proses yang dilakukan akan cepat.

Prinsip kerja LRU sama seperti namanya, Least Recently Used. Jadi yang paling
lama tidak dipakai (di retrieve) oleh user yang akan dihapus jika terjadi overflow
size.

LSU:

Algoritma LSU adalah jenis algoritma yang mirip penggunaannya seperti LRU.
Jika pada algoritma LRU kita mengurutkan posisi cache item berdasarkan recent
(yang baru saja dipakai), maka LSU mengurutkan berdasarkan item yang paling
sering kita gunakan (frequent).

FIFO:

FIFO ialah algoritma yang cara kerjanya ialah dengan memasukkan data yang
pertama, dimana data yang masuk pertama akan keluar pertama juga pada
stack yang telah dibentuk.

MCU:

Ialah algoritma yang bekerja dengan mengganti page yang terlalu banyak pada
sebuah stack yang telah dibentuk

Random:

Ialah algoritma yang bekerja yang dikendalikan oleh system itu langsung,
dimana system kerjanya ialah bebas kadang dari depan dahulu, kadang dari
belakang sebuah stack.

Anda mungkin juga menyukai