Anda di halaman 1dari 7

Nama : Laksana Fajar Gumilang

NIM : 191910201064
Mata Kuliah : Organisasi dan Arsitektur Komputer

Tugas Resume 1

1.1. LATAR BELAKANG SEJARAH


Komputer pertama yang dikendalikan program (mekanis) yang pernah dibuat adalah Zl
(1938). Hal ini diikuti pada tahun 1939 oleh Z2 sebagai komputer pertama yang dikendalikan
oleh program operasional dengan aritmatika titik tetap. Sejauh menyangkut mesin tujuan umum,
University of Pennsylvania tercatat telah menjadi tuan rumah pembangunan mesin Electronic
Numerical Integrator and Calculator (ENIAC) pada tahun 1944. Itu adalah mesin serba guna
operasional pertama yang dibangun menggunakan tabung vakum. Proyek ini adalah untuk
membangun komputer program-tersimpan, yang dikenal sebagai Electronic Delay Storage
Automatic Calculator (EDSAC). Istilah Arsitektur Harvard diberikan kepada mesin semacam itu
untuk menunjukkan penggunaan ingatan yang terpisah. Ini mewakili peningkatan dari BINAC,
yang dibuat pada tahun 1949. Itu dianggap sebagai mesin yang sangat murah.
Pada tahun 1946 dan saat proyek EDVAC sedang berlangsung, proyek serupa
dimulai di Universitas Cambridge. Proyek ini adalah untuk membangun komputer program-
tersimpan, yang dikenal sebagai Electronic Delay Storage Automatic Calculator (EDSAC). Pada
tahun 1949 EDSAC menjadi komputer berskala penuh, program tersimpan, dan operasional
penuh pertama di dunia. Sebuah spin-off dari EDS AC menghasilkan serangkaian mesin yang
diperkenalkan di Harvard. Serial tersebut terdiri dari MARK I, II, III, dan IV. Dua mesin terakhir
memperkenalkan konsep memori terpisah untuk instruksi dan data. Istilah Arsitektur Harvard
diberikan kepada mesin semacam itu untuk menunjukkan penggunaan ingatan yang terpisah.
Perlu dicatat bahwa istilah Arsitektur Harvard digunakan saat ini untuk mendeskripsikan mesin
dengan cache terpisah untuk instruksi dan data.
Komputer komersial tujuan umum pertama, UNIVersal Automatic Computer (UNIV AC
I), ada di pasaran pada pertengahan tahun 1951. Ini mewakili peningkatan dari BINAC, yang
dibuat pada tahun 1949. IBM mengumumkan komputer • pertamanya, IBM701, pada tahun
1952. Awal 1950-an menyaksikan perlambatan dalam industri komputer. Pada tahun 1964 IBM
mengumumkan sederet produk dengan nama IBM 360 series. Seri tersebut menyertakan
sejumlah model yang bervariasi dalam harga dan performa. Hal ini membuat Digital Equipment
Corporation (DEC) memperkenalkan komputer mini pertama, PDP-8. Itu dianggap sebagai
mesin yang sangat murah. Intel memperkenalkan mikroprosesor pertama, Intel 4004, pada tahun
1971. Dunia menyaksikan kelahiran komputer pribadi (PC) pertama pada tahun 1977 ketika seri
komputer Apple pertama kali diperkenalkan. Pada tahun 1977 dunia juga menyaksikan
introduksi.
1.2. PERKEMBANGAN DAN GAYA ARSITEKTUR
Arsitek komputer selalu berusaha untuk meningkatkan kinerja arsitekturnya. Ini terjadi
dalam berbagai bentuk. Diantaranya adalah filosofi bahwa dengan melakukan lebih banyak
dalam satu instruksi, seseorang dapat menggunakan instruksi yang lebih sedikit untuk melakukan
pekerjaan yang sama. Konsekuensi langsung dari hal ini adalah kebutuhan akan operasi
baca/tulis memori yang lebih sedikit dan akhirnya operasi yang dipercepat. Ia juga berpendapat
bahwa meningkatkan kompleksitas instruksi dan jumlah mode pengalamatan memiliki
keuntungan teoritis dalam mengurangi "celah semantik" antara instruksi dalam bahasa tingkat
tinggi dan instruksi dalam bahasa tingkat rendah (mesin). Satu instruksi (mesin) untuk mengubah
beberapa bilangan desimal berkode biner (BCD) menjadi biner adalah contoh betapa rumitnya
beberapa instruksi yang dimaksudkan. Sejumlah besar mode pengalamatan yang
dipertimbangkan (lebih dari 20 di mesin VAX) semakin menambah kompleksitas instruksi.
Mesin yang mengikuti filosofi ini telah disebut sebagai komputer set instruksi kompleks (CISC).
Contoh mesin CISC termasuk Intel Pentium ™, Motorola MC68000 ™, dan IBM & Macintosh
PowerPC ™.

1.3. PENGEMBANGAN TEKNOLOGI


Kompleksitas komputasi dalam satu periode jam. Sejumlah studi dari pertengahan 1970-
an dan awal 1980-an juga mengidentifikasi bahwa dalam program tipikal lebih dari 80% dari
instruksi yang dieksekusi adalah yang menggunakan pernyataan tugas, bersyarat percabangan
dan panggilan prosedur. Juga mengejutkan untuk mengetahui bahwa pernyataan penugasan
sederhana mencakup hampir 50% dari operasi tersebut. Penemuan ini menyebabkan munculnya
filosofi yang berbeda. Filosofi ini mendorong pengoptimalan arsitektur dengan mempercepat
operasi yang paling sering digunakan sekaligus mengurangi kompleksitas instruksi dan jumlah
mode pengalamatan. Mesin yang mengikuti filosofi ini telah disebut sebagai komputer set
instruksi yang dikurangi (RISC). Contoh RISC termasuk mesin Sun SPARC ™ dan MIPS ™.
TABLE 1.2 Numbers of Devices per Chip

Integration Technology Typical number of devices Typical functions

SSI Bipolar 10-20 Gates and flip-flops


MSI Bipolar & MOS 50-100 Adders & counters
LSI Bipolar & MOS 100-10,000 ROM&RAM
VLSI CMOS (mostly) 10,000-5,000,000 Processors
WSI CMOS >5,000,000 DSP & special purposes

Skala integrasi telah berkembang dari skala kecil (SSI) menjadi skala menengah (MSI)ke
skala besar (LSI) ke integrasi skala sangat besar (VLSI), dan saat ini ke integrasi skala • wafer
(WSI). Tabel 1.2 menunjukkan jumlah tipikal perangkat per chip di masing-masing teknologi
ini.
1.4 UKURAN KINERJA
Jumlah siklus jam cpu untuk melaksanakan pekerjaan menjadi cycle
count (cc), waktu siklus dengan ct, dan frekuensi jam dengan f = 1 / ct. Waktu yang
diambil oleh cpu untuk melaksanakan pekerjaan dapat diungkapkan sebagai

Oleh karena itu, jumlah rata-rata siklus jam per instruksi (CPI) telah digunakan
sebagai ukuran kinerja alternatif. Persamaan berikut menunjukkan cara menghitung
CPI.

Diketahui bahwa set instruksi dari mesin yang diberikan terdiri dari sejumlah
kategori instruksi: ALU (instruksi sederhana dan aritmatika dan logika), load, store,
branch, dan sebagainya. Dalam hal CPI untuk setiap kategori instruksi diketahui, CPI
keseluruhan dapat dihitung sebagai

dimana Ji adalah berapa kali instruksi tipe i dijalankan dalam program dan CPIi
adalah jumlah rata-rata siklus clock yang diperlukan untuk menjalankan instruksi
tersebut.
Perlu dicatat bahwa CPI mencerminkan organisasi dan arsitektur set instruksi
dari prosesor sementara jumlah instruksi mencerminkan arsitektur set instruksi dan
teknologi penyusun yang digunakan. Ini menunjukkan tingkat saling
ketergantungan antara dua parameter kinerja. Oleh karena itu, keduanya sangat
penting.
CPI dan jumlah instruksi dipertimbangkan dalam menilai manfaat komputer
tertentu atau setara dalam membandingkan kinerja dua mesin.Ukuran kinerja
berbeda yang telah mendapat banyak perhatian belakangan ini tahun adalah MIPS
(juta instruksi per detik (laju eksekusi instruksi per unit waktu)), yang didefinisikan
sebagai.

Juta instruksi floating-point per detik, MFLOP (tingkat floating-point eksekusi


instruksi per satuan waktu) juga telah digunakan sebagai ukuran kinerja mesin.

Sementara MIPS mengukur tingkat instruksi rata-rata, MFLOPS hanya


ditentukan untuk bagian dari instruksi floating-point. Argumen terhadap MFLOPS
adalah fakta bahwa rangkaian operasi floating-point mungkin tidak konsisten di
seluruh mesin dan oleh karena itu operasi floating-point yang sebenarnya akan
bervariasi dari mesin ke mesin. Argumen lain adalah fakta bahwa performa mesin
untuk program tertentu yang diukur dengan MFLOPS tidak dapat digeneralisasikan
untuk menyediakan metrik performa tunggal untuk mesin tersebut.
Kinerja mesin terkait satu program tertentu mungkin tidak menarik untuk
khalayak luas. Penggunaan aritmatika dan cara geometris adalah cara paling
populer untuk meringkas kinerja terkait dengan rangkaian program yang lebih besar
(misalnya, rangkaian benchmark). Ini dijelaskan di bawah.
1.5. RINGKASAN
Latar belakang sejarah singkat untuk pengembangan sistem komputer, mulai
dari upaya pertama yang tercatat untuk membangun komputer, Zl, pada tahun 1938,
melewati CDC 6600 dan superkomputer Cray, dan berakhir dengan superkomputer
modern saat ini. mesin berkinerja tinggi. Kami kemudian memberikan diskusi
tentang gaya arsitektur RISC versus CISC dan dampaknya terhadap kinerja mesin.
Kemudian dilanjutkan dengan pembahasan singkat tentang perkembangan teknologi
dan dampaknya terhadap kinerja komputasi. Cakupan kami dalam bab ini diakhiri
dengan pembahasan rinci tentang masalah-masalah yang terlibat dalam penilaian •
kinerja komputer. Secara khusus, kami telah memperkenalkan sejumlah ukuran
kinerja seperti CPI, MIPS, MFLOPS, dan sarana kinerja Aritmatika / Geometris,
tidak satupun dari mereka yang mendefinisikan kinerja mesin secara konsisten.

Anda mungkin juga menyukai