Anda di halaman 1dari 39

MAKALAH ORGANISASI DAN ARSITEKTUR

KOMPUTER

DI SUSUN OLEH :
KHAERUL YASIN ( 1510530212 )
EDY SUSANTO ( 1510530221 )

SEKOLAH TINGGI MANAJEMEN INFORMATIKA DAN KOMPUTER


STMIK BUMIGORA MATARAM
TEKNIK INFORMATIKA 2016

i
KATA PENGANTAR

Segala puji hanya milik Allah SWT. Shalawat dan salam selalu tercurahkan kepada
Rasulullah SAW. Berkat limpahan dan rahmat-Nya penyusun mampu menyelesaikan tugas
makalah ini guna memenuhi tugas mata kuliah Pengantar Teknologi Informasi.

Terima kasih pula kepada orang tua, saudara, dan rekan-rekan yang terlah membantu
proses penyusunan makalah ini. Terima kasih kepada Dosen pengampu karenan tanpanya
makalah ini tidak bisa sampai pada level sempurna.

Makalah ini berjudul “organisasi dan arsitektur komputer” yang dimana akan
membahas tentang Sejarah Komuputer, Perbedaan Antar Generasi, Hukkum Moore, Dan
Arsitektur Van Neumann yang berkaitan dengan organisasi dan arsitektur komputer dalam
sebuah komputer. Semoga makalah ini memberikan pemahaman bagi setiap orang yang
membacanya.

Makalah ini masih jauh dari kata sempurna, maka dari itu kritik dan saran yang
membangun sangat dibutuhkan oleh penulis agar bisa tercapainya bentuk makalah yang
sempurna.

ii
DAFTAR ISI

KATA PENGANTAR..................................................................................................ii
DAFTAR ISI...............................................................................................................iii
BAB 1 PENDAHULUAN...........................................................................................iv
a. Latar Belakang.................................................................................................iv
b. Rumusan Masalah............................................................................................iv
c. Tujuan Pembahasan.........................................................................................iv

BAB 2 PEMBAHASAN...............................................................................................1

a. Sejarah Komputer Dari Generasi Ke Generasi.................................................1


b. Perbedaan Antar Generasi...............................................................................11
c. Hukum Moore.................................................................................................12
d. Arsitektur Von Noumann................................................................................14

BAB 3 PENUTUP......................................................................................................34

a. Kesimpulan.....................................................................................................34
b. Saran ..............................................................................................................34
c. Daftar pustaka...................................................................................................3

iii
BAB I

PENDAHULUAN

A. Latar Belakang

Komputer adalah alat elektronik canggih yang sengat penting bagi kehidupan manusia di
era modern seperti sekarang ini, namun sebelum komputer menjadi alat alektronik canggih
dan kecil seperti sekarang ini, tahukah kita kalu komputer barawal dari bentuk mesin yang
sangat besar dan susah untuk di operasikan , namun siering berjalannya waktu komputer terus
mengalami pengmbangan mulai dari generasi pertama hingga sekarang.
Berangkat dari itu semua penulis ingin meberi tahukan kepada para pembaca mengenai
sejarah berkembangnya komputer dari generasi ke generasi, agar kita tidak hanya bisa
menggunakan saja, tetapi kita juga mengeahui bagaimana perkembangan, serta perancangan
dari sebuah sistem komputer sehingga menjadi alat yang sangat canggih dan mudah di
gunakan seperti sekarang ini.

B. Rumusan Masalah

1. Sejarah komputer dari generai ke generasi


2. Perbedaan dai generasi ke generasi
3. hukum moore
4. arsitektur von noumann

C. Tujuan Pembahasan
Agar semua orang mengetahui dan memahami bagaimana sejarah perkembangan
komputer dari awal di temukan hingga menjadi alat yang sangat canggih seperti sekarang ini,
serta mengetahui bagaimana arsitektur atau perancangan dari sebuah komputer canggih yang
kita ketahui sekarang ini.

1
BAB II
PEMBAHASAN

1. SEJARAH KOMPUTER DARI GENERASI PERTAMA


HINGGA SEKARANG

 Komputer Generasi I (1940-1959)

ENIAC

Electronic Numerical Integrator and Calculator (ENIAC) merupakan generasi pertama


komputer digital elektronik yang digunakan untuk kebutuhan umum. Pgamroposal ENIAC
dirancang oada tahun 1942, dan mulai dibuat pada tahun 1943 oleh Dr. John W. Mauchly dan
John Presper Eckert di Moore School of Electrical Engineering (University of Pennsylvania)
dan baru selesai pada tahun 1946.

ENIAC berukuran sangat besar, untuk penempatannya membutuhkan ruang 500m2. ENIAC
menggunakan 18.000 tabung hampa udara, 75.000 relay dan saklar, 10.000 kapasitor, dan
70.000 resistor. Ketika dioperasikan, ENIAC membutuhkan daya listrik sebesar 140 kilowatt
dengan berat lebih dari 30 ton, dan menempati ruangan 167 m2.

Mesin Von Neumann

Mesin ini dikembangkan oleh seorang ahli matamatika yaitu John Von Neumann yang juga
merupakan kosultan proyek ENIAC. Mesin ini dikembangkan mulai tahun 1945 yang
memberikan gagasan sebagai stored-program concept, yaitu sebuah konsep untuk

2
mempermudah proses program agar dapat direpresentasikan dalam bentuk yang cocok untuk
penyimpanan dalam memori untuk semua data. Gagasan ini juga dibuat hampir pada waktu
yang bersamaan dengan Turing. Selanjutnya Von Neumann mempublikasikannya dengan
nama baru yaitu: Electronic Discrete Variable Computer (EDVAC).

Semua input dan output dilakukan melalui kartu plong. Dalam waktu satu detik, ENIAC
mampu melakukan 5.000 perhitungan dengan 10 digit angka yang bila dilakukan secara
manual oleh manusia akan memakan waktu 300 hari, dan ini merupakan operasi tercepat saat
itu dibanding semua komputer mekanis lainnya. ENIAC dioperasikan sampai tahun 1955.
Teknologi yang digunakan ENIAC adalah menggunakan tabung vakum yang dipakai oleh
Laboratorium Riset Peluru Kendali Angkatan Darat (Army’s Ballistics Research Laboratory-
LBR) Amerika Serikat.

Selanjutnya mesin ini dikembangkan kembali dengan perbaikan-perbaikan pada tahun 1947,
yang disebut sebagai generasi pertama komputer elektronik terprogram modern yang
disediakan secara komersial dengan nama EDVAC, EDSAC (Electronic Delay Storage
Automatic Calculator), dan UNIVAC1 dan 2 (Universal Automatic Computer) yang
dikembangkan oleh Eckert dan Mauchly. Untuk pertama kalinya komputer tersebut
menggunakan Random Access Memory (RAM) untuk menyimpan bagian-bagian dari data
yang diperlukan secara cepat.

Dengan konsep itulah John Von Neumann dijuluki sebagai bapak komputer modern pertama
di dunia yang konsepnya masih digunakan sampai sekarang. John Von Neumann lahir di
Budapest, Hongaria 28 Desember 1903 dan meninggal pada tanggal 8 Februari 1957 di
Washington DC, AS. Von Neumann sangat cerdas dalam matematika dan angka-angka. Pada
usia eman tahun dia sudah dapat menghitung pembagian angka dengan delapan digit tanpa
menggunakan kertas atau alat bantu lainnya. Pendidikannya dimulai di University of
Budapest pada tahun 1921 di jurusan kimia. Tapi kemudian dia kembali kepada kesukaannya,
matematika, dan menyelesaikan doktoralnya di bidang matematika di tahun 1928. di tahun
1930 dia mendapatakan kesempatan pergi ke Princeton University (AS). Pada tahun 1933,
Institute of Advanced Studies dibentuk dan dia menjadi salah satu dari enam professor
matematika di sana. Von Neumann kemudian menjadi warga negara Amerika.

Von Neumann juga merupakan orang pertama yang mencetuskan istilah “Game Theory”
yang kemudian berkembang menjadi ilmu tersendiri. Game theory bermanfaat untuk

3
mensimulasikan permainan, seperti catur, bridge, dan sejenisnya. Dia juga bermanfaat untuk
mensimulasikan perang.

Komputer Komersial Pertama

Pada pertengahan tahun 1950 UNIVAC mengalami kemajuan dalam beberapa aspek
pemrograman tingkat lanjut, sehingga merupakan komputer general purpose pertama yang
didesain untuk menggunakan angka dan huruf dan menggunakan pita magnetik sebagai
media input dan output-nya. Inilah yang dikatakan sebagai kelahiran industri komputer yang
didominasi oleh perusahaan IBM dan Sperry. Komputer UNIVAC pertama kali digunakan
untuk keperluan kalkulasi sensus di AS pada tahun 1951, dan dioperasikan sampai tahun
1963.
Komputer-Komputer IBM

IBM memproduksi IBM 605 dan IBM 701 pada tahun 1953 yang berorientasi pada aplikasi
bisnis dan merupakan komputer paling populer sampai tahun 1959. IBM 705 dikeluarkan
untuk menggantikan IBM 701 yang kemudian memantapkan IBM dalam industri pengolahan
data.

4
 Komputer Generasi II (1959-1964)

Komputer generasi kedua ditandai dengan ciri-ciri sebagai berikut:

* Menggunakan teknologi sirkuit berupa transistor dan diode untuk menggantikan tabung
vakum.
* Sudah menggunakan operasi bahasa pemrograman tingkat tinggi seperti FORTRAN dan
COBOL.
* Kapasitas memori utama dikembangkan dari Magnetic Core Storage.
* Menggunakan simpanan luar berupa Magnetic Tape dan Magnetic Disk.
* Kemampuan melakukan proses real time dan real-sharing.
* Ukuran fisiknya sudah lebih kecil dibanding komputer generasi pertama.
* Proses operasi sudah lebih cepat, yaitu jutaan operasi perdetik.
* Kebutuhan daya listrik lebih kecil.
* Orientasi program tidah hanya tertuju pada aplikasi bisnis, tetapi juga aplikasi teknik.

UNIVAC III

Dibanding denga tabung, teknologi transistor jauh lebih efisien sebagai switch dan dapat
diperkecil ke skala mikroskopik. Pada tahun 2001 peniliti Intel telah memperkenalkan silikon
paling kecil dan paling cepat di dunia, dengan ukuran 20 nanometer ata sebanding dengan
sepermiliar meter, yang akan digunakan pada prosesor dengan kecepatan 20 GHz (Giga
Hertz). Era ini juga menandakan permulaan munculnya minikomputer yang merupakan
terbesar kedua dalam keluarga komputer. Harganya lebih murah dibanding dengan generasi
pertama. Komputer DEC PDP-8 adalah minikomputer pertama yang dibuat tahun 1964 untuk
pengolahan data komersial.

Jenis-jenis komputer lain yang muncul pada generasi ini diantaranta UNIVAC III, UNIVAC
SS80, SS90, dan 1107, IBM 7070, 7080, 1400, dan 1600.

5
 Komputer Generasi III (1964-1970)

Pada generasi ketiga inilah teknologi Integrated Circuit (IC) menjadi ciri utama karena mulai
digunakan pada sebuah perangkat komputer hingga generasi sekarang. Komponen IC
berbentuk hybrid atau solid (SLT) dan monolithyc (MST). SLT adalah transistor dan diode
diletakkan terpisah dalam satu tempat sedangkan MST adalah elemen transistor, diode, dan
resistor diletakkan bersama dalam satu chip. MST lebih kesil tetapi mempunyai kemmapuan
lebih besar dibanding SLT.

IC dibuat pertama kali oleh Texas Istruments dan Fairchild Semiconductor pada tahun 1959
yang hanya berisi enam transistor. Bisa kita bandingkan bahwa prosesor saat ini yang kita
gunakan telah memiliki jutaan, puluhan, ratusan juta transistor, bahkan telah didesain
prosesor dengan miliaran transistor. Sebuah perkembangan yang luar biasa dalam masa
kurang dari setengah abad.

Ciri-ciri komputer generasi ketiga adalah:

* Karena menggunakan IC maka kinerja komputer menjadi lebih cepat dan tepat.
Kecepatannya hampir 10.000 kali lebih cepat dari komputer generasi pertama.
* Peningkatan dari sisi software.
* Kapasitas memori lebih besar, dan dapat menyimpan ratusan ribu karakter (sebelumnya
hanya puluhan ribu).
* Menggunakan media penyimpanan luar disket magnetik (external disk) yang sifat
pengaksesan datanya secara acak (random access) dengan kapasitas besar (jutaan karakter).
* Penggunaan listrik lebih hemat.
* Kemampuan melakukan multiprocessing dan multitasking.
* Telah menggunakan terminal visual display dan dapat mengeluarkan suara.

6
* Harganya semakin murah.
* Kemampuan melakukan komunikasi dengan komputer lain.

IBM S/360, UNIVAC 1108, UNIVAC 9000, Burroughts 5700, 6700, 7700, NCR Century,
GE 600, CDC 3000, 6000, dan 7000, PDP-8, dan PDP-11 (pabrik pembuatnya adalah Digital
Equipment Corporation) merupakan contoh-contoh komputer generasi ketiga.

 Komputer Generasi IV (1970-1980-an)

Komputer generasi keempat merupakan kelanjutan dari generasi III. Bedanya bahwa IC pada
generasi IV lebih kompleks dan terintegrasi. Sejak tahun 1970 ada dua perkembangan yang
dianggap sebagai komputer generasi IV. Pertama, penggunaan Large Scale Integration (LSI)
yang disebut juga dengan nama Bipolar Large Large Scale Integration. LSI merupakan
pemadatan beribu-ribu IC yang dijadikan satu dalam sebuah keping IC yang disebut chip.
Istilah chip digunakan untuk menunjukkan suatu lempengan persegi empat yang memuat
rangkaian terpadu IC. LSI kemudian dikembangkan menjadi Very Large Scale Integration
(VLSI) yang dapat menampung puluhan ribu hingga ratusan ribu IC. Selanjutnya
dikembangkannya komputer mikro yang menggunakan mikroprosesor dan semikonduktor
yang berbentuk chip untuk memori komputer internal sementara generasi sebelumnya
menggunakan magnetic core torage.
Komputer Generasi IV: Apple II

Komputer Generasi IV: Apple II

7
Perusahaan Intel pada tahun 1971 memperkenalkan mikrokomputer 4 bit yang menggunakan
chip prosesor dengan nama 4004 yang berisi 230 transistor dan berjalan pada 108 KHz (Kilo-
Hertz) dan dapat mengeksekusi 60.000 operasi per detik. Dilanjutkan pada tahun 1972, Intel
memperkenalkan mikrokomputer 8008 yang memproses 8 bit informasi pada satu waktu.
Selanjutnya mikroprosesor 8080 dibuat pada tahun 1974, dan merupakan prosesor untuk
tujuan umum pertama. Sebelumnya prosesor 4004 dan 8008 dirancang untuk kebutuhan
aplikasi tertentu, dan prosesor 8080 memiliki kemampuan lebih cepat dan memilki set
instruksi yang lebih kaya, serta memiliki kemampuan pengalamatan yang lebih besar. Pada
generasi keempat ini tampilan monitor masih satu warna (green color).

Komputer Generasi IV: PDP 11

Komputer-komputer generasi keempat diantaranya adalah IBM 370, Apple I dan Apple II,
PDP-11, VisiCalc, dan Altair yang menggunakan prosesor Intel 8080, dengan sistem operasi
CP/M (Control Program for Microprocessor), dengan bahasa pemrograman Microsoft Basic
(Beginners Allpurpose Symbolic Instruction Code). Sebagai catatan bahwa pada komputer-
komputer generasi keempat ini tidak satupun yang PC-Compatible atau Macintosh-
Compatible. Sehingga pada generasi ini belum ditentukan standar sebuah komputer terutama
personal computer (PC).

8
 Komputer Generasi V (1980-an-sekarang)

Akhir tahun 1980, IBM memutuskan untuk membangun sebuah komputer personal (PC)
secara massal, yang pada tanggal 12 Agustus 1981 menjadi sebuah standar komputer PC, dan
pada akhirnya hingga saat ini PC dikenal dengan nama standar IBM-PC. Prosesor yang
digunakan adalah 8088/8086 yang menjadi standar komputer saat ini, menggunakan basis
proses 16 bit persatuan waktu. Dengan lahirnya komputer generasi kelima ini, IBM bekerja
sama dengan Microsoft untuk mengembangkan software di dalamnya. Hingga saat ini
Microsoft mendominasi kebutuhan software di dunia PC.

Pada perkembangan selanjutnya perubahan besar terjadi bahwa sejak IBM-PC diperkenalkan
dan bukan menjadi satu-satunya manufaktur PC-compatible, maka standar baru dalam dunia
industri PC lebih dikembangkan oleh perusahaan lain seperti Intel dan Microsoft yang
dipelopori oleh W. Bill Gates yang menjadi pionir standar hardware dan software dunia.

Pada generasi kelima ini, telah dilakukan pengembangan dengan apa yang dinamakan
Josephson Junction, teknologi yang akan menggantikan chip yang mempunyai kemampuan
memproses trilyunan operasi perdetik sementara teknologi chip hanya mampu memproses
miliaran operasi perdetik. Komputer pada generasi ini akan dapat menerjemahkan bahasa
manusia, manusia dapat langsung bercakap-cakap dengan komputer serta adanya
penghematan energi komputer. Sifat luar biasa ini disebut sebagai “Artificial Intelligence”,
selain itu juga berbasis Graphic User Interface (GUI), multimedia, dan multikomunikasi.

Contoh-contoh komputer yang lahir pada generasi kelima berbasis x86, seperti chip 286 yang
diperkenalkan pada tahun 1982 dengan 134.000 transistor, kemudian chip 386 pada tahun
1983 dengan 275.000 transistor, sedangkan chip 486 diperkenalkan tahun 1989 yang
memiliki 1,2 juta transistor. Selanjutnya pada tahun 1993 Intel memperkenalkan keluarga

9
prosesor 586 yang disebut Pentium 1 dengan jumlah transistor 3,1 juta untuk melakkan 90
MIPS (Million Instruction Per Second). Kemudian dilanjutkan pada generasi berikutnya yaitu
Pentium 2, 3, dan 4.

Pada akhir tahun 2000 Intel memperkenalkan Pentium 4, yang merupakan prosesor terakhir
dalam keluarga Intel dengan arsitektur 32 bit (IA-32). Tahun 2001 Intel mengumumkan
prosesor Itanium yang merupakan prosesor dengan basis arsitektur 64 bit (IA-64) pertama.
Itanium merupakan prosesor pertama milik Intel dengan instruksi-instruksi 64 bit dan akan
menelurkan satu generasi baru dari sistem operasi dan aplikasi, sementara masih
mempertahankan backward compatibility dengan software 32 bit. Perlu diketahui bahwa
sejak dikeluarkannya prosesor 386, komputer beroperasi pada 32 bit per satuan waktu dalam
mengeksekusi informasi hingga Pentium 4. Hingga sekarang komputer yang digunakan
kebanyakan masih yang berbasis 32 bit.

Pada generasi pentium, selain ciri khas pada peningkatan kecepatan akses datanya juga
tampilan gambar sudah beresolusi (kualitas gambar) bagus dan berwarna serta multimedia,
dan yang lebih penting adalah fungsi komputer menjadi lebih cerdas. Meskipun komputer
pada generasi ini ukuran fisiknya menjadi lebih kecil dan sederhana namun memiliki
kemampuan yang semakin canggih.

10
2. Perbedaan Masing-Masing Generasi Komputer

1. Komputer generasi pertama (1946-1959)


 Penggunaan tube vakum ( yang mana membuat komputer pada masa tersebut
berukuran sangat besar )
 Adanya silinder magnetik untuk menyimpan data
 Instruksi operasi di buat secara spesifik untuk tugas tertentu
 Setiap komputer memiliki program kode biner yang berbeda yang di sebut “bahasa
mesin (machine language)”. Hal ini menyebabkan komputer sulit untuk di program
dan membatasi kecepatannya

2. Komputer generasi kedua (1959-1964)


 Penggunaan transistor sehingga ukuranya lebih kecil
 Adanya pengembangan memori inti magnetik yang membantu pengembangan
komputer genersi kedua yang lebih kecil, lebih cepat, lebih dapat di andalkan, dan
lebih hemat energi di banding para pendahulunya.
 Penggantian dari bahasa mesin ke bahasa asembly
 Muncul bahasa pemrograman COBOL dan FORTRAN

3. Komputer generasi ke tiga (1964-1970)


 Penggunaan IC (integrated circuit)
 Ukuran komputer menjadi lebih kecil
 Di temukan sistem operasi

4. Komputer generasi ke empat


 Di gunakan LSI, VLSI, ULSI
 Di gunakannya mikroprosesor

11
3. HUKUM MOORE

Hukum Moore adalah salah satu hukum yang terkenal dalam industri mikroprosesor
yang menjelaskan tingkat pertumbuhan kecepatan mikroprosesor. Diperkenalkan oleh
Gordon E. Moore salah satu pendiri Intel bersama dengan Robert Noyce. Ia mengatakan
bahwa pertumbuhan kecepatan perhitungan mikroprosesor mengikuti rumusan eksponensial.

Menurut Hukum Moore, jumlah transistor dalam sebuah chip akan berlipat ganda setiap dua
tahun. Penggandaan ini menghasilkan lebih banyak fitur, peningkatan kinerja, dan penurunan
biaya untuk setiap transistor. Namun seiring dengan kian mengecilnya ukuran transistor,
peningkatan daya dan panas menjadi masalah yang kian berkembang. Oleh karena itu,
implementasi fitur-fitur, teknik, dan struktur baru mutlak diperlukan. Intel menjawab dengan
mengintegrasikan fitur-fitur hemat daya ke dalam proses teknologi 65 nm. Fitur-fitur ini
berperan penting dalam menghadirkan komputasi dan produk-produk komunikasi yang
memiliki efisiensi daya di masa depan.

Teknologi strained silicon dari Intel —kali pertama diimplementasikan pada proses teknologi
Intel 90 nm—dikembangkan lagi pada teknologi 65 nm. Generasi kedua dari teknologi
strained silicon meningkatkan kinerja transistor antara 10 sampai 15 persen tanpa
memperbesar kebocoran.

12
Singkatnya, transistor-transistor ini dapat memperkecil kebocoran sebanyak empat kali
dibandingkan dengan transistor-transistor 90 nm. Akibatnya, transistor-transistor pada proses
teknologi 65 nm memiliki peningkatan kinerja tanpa peningkatan kebocoran yang signifikan.

Transistor-transistor Intel 65 nm memiliki lebar gerbang lebih kecil sebesar 35 nm dan


ketebalan gerbang oksida sebesar 1,2 nm, yang kombinasinya menghasilkan peningkatan
kinerja dan penurunan kapasitas gerbang. Penurunan kapasitas gerbang pada akhirnya akan
menurunkan daya aktif chip. Proses terbaru ini juga mengintegrasikan delapan lapis cooper
yang saling terhubung dan menggunakan suatu materi dielektrik “lowk” yang meningkatkan
kecepatan sinyal di dalam chip dan mengurangi konsumsi daya chip.

Intel juga telah mengimplementasikan “sleep transistor” dalam SRAM 65nm. Transistor-
transistor tersebut akan memadamkan aliran yang ada ke blok-blok dari SRAM ketika mereka
tidak sedang digunakan, yang secara signifikan membatasi sumber konsumsi daya pada chip.
Fitur ini bermanfaat bagi perangkat yang menggunakan tenaga baterai, seperti laptop.

Dalam tulisannya, Moore meramalkan, pemakaian transistor pada keping IC meningkat


secara eksponensial dua kali lipat setiap tahun. Prediksi Moore dikenal sebagai Hukum
Moore dan terbukti hingga saat ini. Namun, kecenderungan tersebut terus menurun dan mulai
dipertanyakan ketepatannya, sehingga peningkatan jumlah IC secara eksponensial
berlangsung rata-rata menjadi setiap 18 bulan.

13
4. Arsitektur von Neumann
Arsitektur Von Neumann adalah arsitektur komputer yang menempatkan program
(ROM=Read Only Memory) dan data (RAM=Random Access Memory) dalam peta memori
yang sama. Arsitektur ini memiliki address dan data bus tunggal untuk mengalamati program
(instruksi) dan data. Arsitektur von Neumann atau Mesin Von Neumann merupakan
arsitektur yang diciptakan oleh John von Neumann pada tahun 1903-1957. Yang mana 
hampir semua komputer saat ini menggunakan Arsitektur buatan John Von Neumann.
Arsitektur Von Neumann ini   menggambarkan komputer dengan empat bagian utama yaitu:

         Unit Aritmatika dan Logis (ALU),

         unit kontrol (CU)

         memori, dan

         alat masukan I/O

Diagram blok hubungan antara komponen CPU:

14
Diagram Arsitektur Von Neumann

Cara kerja

1.    Komunikasi Antara Memori dan Unit Pengolahan

a.        Alamat memori Register (MAR).

b.       Memori data Register (MDR).

Untuk membaca,

a.        The address of the location is put in MAR. Alamat lokasi diletakkan Maret

b.       Memori diaktifkan untuk membaca.

15
c.        Nilai ini dimasukkan ke dalam MDR oleh memori.

  

Untuk menulis,

a.        Alamat lokasi diletakkan Maret

b.       Data dimasukkan ke dalam MDR.

c.        Tulis Aktifkan sinyal menegaskan.

d.       Nilai dalam MDR ditulis ke lokasi yang ditentukan. 

2.      CPU

a.        Hardware unit seperti ALU , register, memori, dll, yang dihubungkan bersama ke dalam
jalur data-.

b.       Aliran bit sekitar jalur data-dikendalikan oleh "gerbang" yang memungkinkan bit mengalir
atau tidak mengalir (off) melalui jalur data-.

c.        Instruksi biner (1 = on, 0 = off) yang mengontrol aliran yang disebut micro-instruksi.

16
Jalur data

3.     Memori Operasi

Ada dua operasi kunci pada memori:

a.       fetch( address )  nilai kembali tanpa mengubah nilai yang disimpan di alamat itu.

17
b.      store( address, value )  menulis nilai baru ke dalam sel pada alamat yang
diberikan.

         Memori jenis ini adalah acak-akses, yang berarti bahwa CPU dapat mengakses
nilai dari array setiap saat (vs akses sekuensial, seperti pada tape).

         Memori seperti ini disebut RAM (random-access memory.)

         Beberapa memori non-volatile, atau read-only (ROM ) 

Keuntungan Model Arsitektur Von Neuman

a.       fleksibilitas pengalamatan program dan data.

b.       program selalu ada di ROM dan data selalu ada di RAM.

c.       Arsitektur Von Neumann memungkinkan prosesor untuk menjalankan program yang
ada didalam memori data (RAM).

Kelemahan Model Arsitektur Von Neumann

a.       bus tunggalnya itu sendiri. Sehingga instruksi untuk mengakses program dan data harus
dijalankan secara sekuensial dan tidak bisa dilakukan overlaping untuk menjalankan dua
isntruksi yang berurutan.

b.      bandwidth program harus sama dengan banwitdh data. Jika memori data adalah 8 bits
maka program juga harus 8 bits.

18
c.       prosesor Von Neumann membutuhkan jumlah clock CPI (Clock per Instruction) yang
relatif lebih banyak sehingga eksekusi instruksi dapat menjadi relatif lebih lama.

Arsitektur Komputer Model Harvard


Arsitektur Harvard memiliki dua memori yang terpisah satu untuk program (ROM) dan satu
untuk data (RAM), yang mana arsitektur ini merupkan kebalikkan dari arsitektur komputer
model von nuemann, jika von neuman mengabungkan ROM dan RAM menjadi satu maka
arsitektur harvard maka kedua memori tersebut dipisahkan.

Pada mikroprosesor yang berarsitektur Harvard, overlaping pada saat menjalankan instruksi
bisa terjadi. Satu instruksi biasanya dieksekusi dengan urutan fetch (membaca instruksi ),
decode (pengalamatan), read (membaca data), execute (eksekusi) dan write (penulisan data)
jika perlu. Secara garis besar ada dua hal yang dilakukan prosesor yaitu fetching atau
membaca perintah yang ada di memori program (ROM) dan kemudian diikuti oleh executing
berupa read/write dari/ke memori data (RAM). Karena pengalamatan ROM dan RAM yang
terpisah, ini memungkinkan CPU untuk melakukan overlaping pada saat menjalankan
instruksi. Dengan cara ini dua instruksi yang beurutan dapat dijalankan pada saat yang
hampir bersamaan. Yaitu, pada saat CPU melakukan tahap executing instruksi yang pertama,
CPU sudah dapat menjalankan fetching instruksi yang ke-dua dan seterusnya. Ini yang
disebut dengan sistem pipeline, sehingga program keseluruhan dapat dijalankan relatif lebih
cepat. 

Pada arsitektur Harvard, lebar bit memori program tidak mesti sama dengan lebar memori
data. Misalnya pada keluarga PICXX dari Microchip, ada yang memiliki memori program
dengan lebar 12,14 atau 16 bits, sedangkan lebar data-nya tetap 8 bits. Karena bandwith
memori program yang besar (16 bits), opcode dan operand dapat dijadikan satu dalam satu

19
word instruksi saja. Tujuannya adalah supaya instruksi dapat dilakukan dengan lebih singkat
dan cepat. 

Kedua hal di atas inilah yang membuat prosesor ber-arsitektur Harvard bisa memiliki CPI
yang kecil. PICXX dari Microchip dikenal sebagai mikroprosesor yang memiliki 1 siklus
mesin (machine cycle) untuk tiap instruksinya, kecuali instruksi percabangan. 

Dari segi kapasitas memori, tentu arsitektur Harvard memberi keuntungan. Karena memori
program dan data yang terpisah, maka kavling total memori program dan data dapat menjadi
lebih banyak. Mikrokontroler 8bit Motorola 68HC05 memiliki peta memori 64K yang
dipakai bersama oleh RAM dan ROM. Oleh sebab itu pengalamatan ROM dan RAM hanya
dapat mencapai 64K dan tidak lebih. Sedangkan pada mikrokontroler Intel keluarga 80C51
misalnya, memori program (ROM) dan memori data (RAM) masing-masing bisa mencapai
64K. 

Tetapi ada juga kekurangannya, arsitektur Harvard tidak memungkinkan untuk menempatkan
data pada ROM. Kedengarannya aneh, tetapi arsitektur ini memang tidak memungkinkan
untuk mengakses data yang ada di ROM. Namun hal ini bisa diatasi dengan cara membuat
instruksi dan mekanisme khusus untuk pengalamatan data di ROM. Mikroprosesor yang
memiliki instruksi seperti ini biasanya disebut ber-arsitektur Modified Harvard. Instruksi
yang seperti ini dapat ditemukan pada keluarga MCS-51 termasuk Intel 80C51, P87CLXX
dari Philips dan Atmel AT89LSXX

DIAGRAM BLOK ARSITEKTUR HARDVARD

20
Diagram Arsitektur Komputer Model Harvard

Kelebihan Arsitektur Komputer Model Harvard

a.       bandwidth program tidak mesti sama dengan bandwidth  data

b.      opcode dan operand dapat dijadikan dalam satu word instruksi saja

c.       instruksi dapat dilakukan dengan lebih singkat dan cepat

d.      memori program dan data yang terpisah,  maka kavling total memori program dan
data dapat menjadi lebih banyak.

Kekurangan Arsitektur Komputer Model Harvard

21
a.       arsitektur Harvard tidak memungkinkan untuk menempatkan data pada ROM.

b.       arsitektur in tidak memungkinkan untuk mengakses data yang ada di ROM

CISC & RISC

Pada saat ini ada dua konsep populer yang berhubungan dengan desain CPU dan set
instruksi:
1. Complex Instruction Set Computing (CISC).

2. Reduce Instruction Set Computing (RISC).

    Semua sistem yang lama (komputer mainframe, komputer mini atau komputer mikro)
relatif mempunyai sistem CISC. Walaupun sistem sekarang terdiri atas kedua jenis tersebut.
Sistem RISCsaat ini lebih populer karena tingkat kerjanya, dibandingkan dengan sistem
CISC. Namun karena biayanya tinggi, sistem RISC hanya digunakan ketika diperlukan
kecepatan khusus, keandalan dan sebagainya.

CISC (Complex Instruction-Set Computer)

          Complex Instruction Set Computer (CISC) adalah sebuah arsitektur dari set instruksi
dimana setiap instruksi akan menjalankan beberapa operasi tingkat rendah, seperti
pengambilan dari memory, operasi aritmetika, dan penyimpanan ke dalam memory,
semuanya sekaligus hanya di dalam sebuah instruksi. Tujuan utama dari arsitektur CISC
adalah melaksanakan suatu perintah cukup dengan beberapa baris bahasa mesin sedikit
mungkin. Hal ini bisa tercapai dengan cara membuat perangkat keras prosesor mampu
memahami dan menjalankan beberapa rangkaian operasi. Untuk tujuan contoh kita kali ini,
sebuah prosesor CISC sudah dilengkapi dengan sebuah instruksi khusus, yang kita beri
nama MULT. Saat dijalankan, instruksi akan membaca dua nilai dan menyimpannya ke 2
register yag berbeda, melakukan perkalian operan di unit eksekusi dan kemudian
mengambalikan lagi hasilnya ke register yang benar.

     Karakteristik CISC yg "sarat informasi" ini memberikan keuntungan di mana ukuran


program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory
akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu

22
(tahun 1960) menjadi jauh lebih hemat. Memang setelah itu banyak desain yang
memberikan hasil yang lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan
pemrograman level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu
demikian.
Contoh-contoh prosesor CISC adalah : System/360, VAX, PDP-11, varian Motorola 68000 ,
dan CPU AMD dan Intel x86.

CISC mempunyai karakteristrik :

1. Instruksi berukuran tunggal

2. Ukuran yang umum adalah 4 byte. 

3. Jumlah mode pengalamatan data yang sedikit, biasanya kurang dari lima buah. 

4. Tidak terdapat pengalamatan tak langsung. 

5. Tidak terdapat operasi yang menggabungkan operasi load/store dengan operasi aritmetika
(misalnya, penambahan dari memori, penambahan ke memori). 

RISC (Reduce Instruction Set Computer)

  RISC Reduced Instruction Set Computingatau "Komputasi set instruksi yang disederhanakan.
Merupakan sebuah arsitektur komputer atau arsitektur komputasi modern dengan instruksi-
instruksi dan jenis eksekusi yang paling sederhana. Biasanya digunakan pada komputer
berkinerja tinggi seperti komputer vektor.

       Bahasa pemprograman memungkinkan programmer dapat mengekspresikan algoritma


lebih singkat, lebih memperhatikan rincian, dan mendukung penggunaan pemprograman
terstruktur, tetapi ternyata muncul masalah lain yaitu semantic gap, yaitu perbedaan antara
operasi-operasi yang disediakan oleh HLL dengan yang disediakan oleh arsitektur komputer,
ini ditandai dengan ketidakefisienan eksekusi, program mesin yang berukuran besar,dan
kompleksitas kompiler.

Set-set instruksi yang kompleks tersebut dimaksudkan untuk :

1. Memudahkan pekerjaan kompiler

23
2. Meningkatkan efisiensie ksekusi, karena operasi yang kompleks dapat diimplementasikan
didalam mikrokode.

3. Memberikan dukungan bagi HLL yang lebih kompleks dan canggih.

RISC mempunyai karakteristik :

1. One cycle execution time : satu putaran eksekusi.

2. Prosessor RISC mempunyai CPI (clock per instruction) atau waktu per instruksi untuk
setiap putaran. Hal ini dimaksud untuk mengoptimalkan setiap instruksi pada CPU.

3. Pipelining  adalah sebuah teknik yang memungkinkan dapat melakukan eksekusi secara
simultan. Sehingga proses instruksi lebih efiisien

4. Large number of registers: Jumlah register yang sangat banyak

5. RISC didesain dimaksudkan untuk dapat menampung jumlah register yang sangat
banyak untuk mengantisipasi agar tidak terjadi interaksi yang berlebih dengan memory.

6. Rangkaian instruksi built-in pada processor yang terdiri dari perintah-perintah yang
lebih ringkas dibandingkan dengan CISC.

7. RISC memiliki keunggulan dalam hal kecepatannya sehingga banyak digunakan untuk
aplikasi-aplikasi yang memerlukan kalkulasi secara intensif.

Perbandingan antara RISC dengan CISC

24
      Cara sederhana untuk melihat kekurangan dan kelebihan dari CISC dan RISC adalah
dengan membandingkannya secara langsung. Pada tahap perbandingan ini dicoba dengan
menghitung perkalian dua bilangan dalam memori. Memori tersebut terbagi menjadi
beberapa lokasi yang diberi nomor 1(baris): 1 (kolom) hingga 6:4. Unit eksekusi
bertanggung-jawab untuk semua operasi komputasi. Namun, unit eksekusi hanya beroperasi
untuk data yang sudah disimpan kedalam salah satu dari 6 register (A, B, C, D, Eatau F).
Misalnya, kita akan melakukan perkalian (product) dua angka, satu di simpan di lokasi 2:3
sedangkan lainnya di lokasi 5:2, kemudian hasil perkalian tersebut dikembalikan lagi kelokasi
2:3.

1.Menggunakan Pendekatan RISC

       Prosesor RISC hanya menggunakan instruksi-instruksi sederhana yang bisa dieksekusi


dalam satu siklus. Dengan demikian, instruksi ‘MULT’ sebagaimana dijelaskan sebelumnya
dibagi menjadi tiga instruksi yang berbeda, yaitu“LOAD”, yang digunakan untuk
memindahkan data dari memori kedalam register, “PROD”, yang digunakan untuk
melakukan operasi produk (perkalian) dua operan yang berada di dalam register (bukan yang
ada di memori) dan “STORE”, yang digunakan untuk memindahkan data dari register

25
kembali kememori. Berikut ini adalah urutan instruksi yang harus dieksekusi agar yang
terjadi sama dengan instruksi “MULT” pada prosesor RISC (dalam 4 baris bahasa mesin):

LOAD A, 2:3

LOAD B, 5:2

PROD A, B

STORE 2:3, A

2.Menggunakan Pendekatan  CISC

      Tujuan utama dari arsitektur CISC adalah melaksanakan suatu perintah cukup dengan
beberapa baris bahasa mesin sedikit mungkin. Hal ini bisa tercapai dengan cara membuat
perangkat keras prosesor mampu memahami dan menjalankan beberapa rangkaian operasi.

      Sebuah prosesor CISC sudah dilengkapi dengan sebuah instruksi khusus, yang  diberi nama
MULT. Saat dijalankan, instruksi akan membaca dua nilai dan menyimpannya ke 2 register
yang berbeda, melakukan perkalian operan di unit eksekusi dan kemudian mengambalikan
lagi hasilnya ke register yang benar. Jadi instruksi-nya cukup satu saja.

MULT 2:3, 5:2

CISC

- Penekanan pada perangkat keras (hardware) 

- Termasuk instruksi kompleks multi-clock

- Memori-ke-memori: “LOAD” dan “STORE” saling bekerjasama

- Ukuran kode kecil, kecepatan rendah

- Transistor digunakan untuk menyimpan instruksi-instruksi kompleks

    

RISC

- Penekanan pada perangkat lunak (software)

26
- Single-clock, hanya sejumlah kecil instruksi

- Register ke register: “LOAD” dan “STORE” adalah instruksi - instruksi terpisah

- Ukuran kode besar, kecepatan (relatif) tinggi

- Transistor banyak dipakai untuk register memori

x86 & ARM

x86

        Arsitektur x86 adalah rancangan Set Instruksi Komputer Kompleks (Complex


Instruction Set Computer) dengan panjang instruksi yang bervariasi. Word disimpan
dengan urutan endian-kecil. Kompatibilitas mundur menjadi motivasi terkuat dalam
pengembangan arsitektur x86 (keputusan ini menjadi sangat penting dan sering dikritik,
terutama oleh pesaing dari pendukung arsitektur prosesor lainnya, yang dibuat frustasi
oleh sukses yang berkelanjutan dari arsitektur ini yang secara umum dipandang memilki
banyak kelemahan). Prosesor-prosesor terkini dari x86 menerapkan beberapa langkah
penerjemah (dekoder) “tambahan” untuk (saat eksekusi) memecah (sebagian besar)
instruksi x86 kedalam potongan-potongan kecil instruksi (dikenal dengan “micro-ops”)
yang selanjutnya dieksekusi oleh arsitektur setara dengan arsitektur RISC.

      Bahasa rakitan dari x86 dibahas secara lebih terperinci di artikel Bahasa Rakitan x86.

1.        Mode Real (Real Mode)

      Intel 8086 dan 8088 dilengkapi dengan 14 16-bit register. Empat diantaranya (AX, BX,
CX, DX) dirancang sebagai fungsi umum (general purpouse) (meskipun masing-masing
juga memiliki fungsi khusus tambahan; misalnya hanya register CX yang dapat digunakan
sebagai penghitung (counter) dalam instruksi loop). Setiap register dapat diakses sebagai
dua byte (8-bit) terpisah (jadi byte-atas BX’s dapat diakses sebagai BH dan byte-bawah-
nya sebagai BL). Selain itu, terdapat juga empat register segmen (CS, DS, SS dan ES).

27
Register ini digunakan untuk membangun alamat memori. Ada juga dua register penunjuk
(pointer) (SP yang menunjuk pada titik awal stack, dan BP yang dapat menunjuk pada titik
manapun dalam stack atau memori). Ada dua register indeks (SI dan DI) yang dapat
digunakan sebagai penunjuk dalam array. Dan terakhir, ada sebuah register penanda
(register flag) yang terdapat didalamnya penanda-penanda seperti carry, overflow, zero
dan lain-lain, dan juga sebuah penunjuk instruksi (instruction pointer – IP) yang menunjuk
ke alamat instruksi yang sedang dieksekusi.

      Dalam mode real, memori diakses secara tersegmentasi. Hal ini dilakukan dengan menggeser
(shifting) alamat segmen 4 bit ke kiri dan menambah sebuah ofset untuk menghasilkan
alamat akhir sepanjang 20-bit. Contohnya, jika DS berisi nilai A000h dan SI berisi nilai
5677h, DS:SI akan mengacu pada titik alamat real DS × 16 + SI = A5677h. Jadi jumlah total
alamat memori yang dapat diakses dalam mode real adalah 220 byte, atau 1 MiB, jumlah
yang sangat mengesankan di tahun 1978. Seluruh alamat memori terbagi dalam segmen dan
ofset; dan setiap tipe akses (kode, data, atau stack) memiliki register segmen tertentu (untuk
data register yang digunakan DS, untuk kode digunakan register CS, dan untuk stack
digunakan SS). Untuk mengakses data, register segmen dapat secara langsung dipilih (dengan
melakukan ubah-paksa (override) prefik segmen) dari empat register segmen yang tersedia.

      Dengan aturan ini, dua pasang segmen/ofset yang berbeda bisa mengacu ke lokasi memori
absolut yang sama. Jadi bila DS berisi A111h dan SI 4567h, DS:SI akan menunjuk ke alamat
A56777h seperti di atas. Lebih lanjut, CS dan SS berperan vital bagi program agar berfungsi
secara benar, sehingga hanya DS dan ES yang dapat dipakai untuk mengacu ke segmen data
diluar program (atau lebih tepatnya, diluar segmen program yang sedang dieksekusi) atau
stack. Skema ini, yang semula bertujuan mempertahankan kompatibilitas dengan Intel 8085,
sering dikeluhkan oleh para programer (walaupun beberapa programer tidak terlalu
mempedulikannya, dan popularitas x86 sebelum tahun-tahun mode proteksi diperkenalkan
membuktikan bahwa hal ini bukan cacat yang sangat serius).

      Selain itu, 8086 juga memiliki 64 KB alamat I/O 8-bit (atau 32 K-word dari 16-bit), dan satu
64 KB (satu segmen) stack di memori yang didukung oleh hardware (memakai register-

28
register SS, SP, dan BP). Hanya word (2 byte) yang bisa di-push ke stack. Stack tumbuh ke
bawah (ke arah alamat yang lebih rendah secara numerik), dengan ujung bawah diacu oleh
SS:SP. Ada 256 interrupt yang dapat diaktifkan oleh hardware maupun software. Interrupt
tersebut bisa bertingkat, memanfaatkan stack untuk menyimpan alamat balik.

      CPU x86 32-bit yang modern masih mendukung real mode, bahkan memulai operasi pada
real mode setelah reset. Kode real mode yang dijalankan pada prosesor-prosesor tersebut bisa
memanfaatkan register 32-bit dan register segmen tambahan (FS dan GS) yang mulai tersedia
sejak 80386.

2.        Mode terproteksi 16-bit (16-bit protected mode)

      Prosesor 80286 dapat menjalankan Operating System yang menggunakan Mode Real 16-bit
prosesor 8086 tanpa perubahan pada OS, namun prosesor ini juga mempunyai mode lain,
yaitu mode terproteksi. Mode terproteksi memungkinkan program untuk mengakses RAM
yang berukuran 16MB, dan memiliki memori virtual hingga 1GB. Hal ini dimungkinkan
karena mode terproteksi menggunakan register segmen untuk menyimpan index ke sebuah
tabel segmen. Pada 80286, terdapat dua buah tabel segmen, yaitu tabel GDT dan tabel LDT,
masing-masing dapat menyimpan hingga 8192 perinci segmen, tiap segment memberi akses
untuk memori sebesar hingga 64KB. Tabel segmen ini menyimpan alamat dasar yang
berukuran 24-bit, yang akan digunakan untuk menghitung alamat absolut dari memori yang
akan digunakan. Selain itu, segmen-segmen ini dapat diberikan salah satu dari empat jenis
level akses.

      Walaupun dibuatnya prosesor ini merupakan pengembangan yang baik, prosesor ini sangat
jarang digunakan karena mode terproteksi tidak dapat menjalankan program-program yang
berjalan mode real yang sudah ada sebagai proses, karena program-program mode real sering

29
mengakses perangkat keras secara langsung dan beberapa ada yang melakukan aritmatika
segmen, sehingga tidak dapat dijalankan pada mode terproteksi.

ARM

Prosesor berasitektur ARM merupakan prosesor yang paling banyak digunakan dalam
perangkat mobile saat ini. Desainnya yang sederhana, membuat prosesor ARM cocok untuk
aplikasi berdaya rendah.

Bebeda dari  Intel dan AMD yang memproduksi dan menjual prosesor rancangan mereka
sendiri. ARM hanya menjual lisensi hak paten desain prosesor mereka kepada berbagai
perusahaan manufaktur semikonduktor.

Lisensi arsitektur proseor ARM saat ini dimiliki oleh Alcatel, Atmel, Broadcom, Cirrus
Logic, Digital Equipment Corporation, Freescale, Intel melalui DEC, LG, Marvell
Technology Group, NEC, NVIDIA, NXP Semiconductors, OKI, Quallcomm, Samsung,
Sharp, ST Microelectronics, Symbios Logic, Texas Instruments, VLSI Technology, Yamah
dan ZiiLABS. Dalam situs resmi perusahaan, ARM mengklaim telah menjual 30 miliar unit
prosesor dan lebih dari 16 juta prosesor terjual setiap harinya.

Pada awalnya, Advanced RISC Machines (ARM) yang didirikan pada tahun 1990 ini
merupakan sebuah perusahaan patungan antara Acorn Computers, Apple Computer (sekarang
Apple Inc), dan VLSI Technology. Pada tahun 1998, Advanced RISC Machines berganti
nama menjadi ARM Holdings. Perusahaan ini fokus pada penelitan dan pengembangan
desain arsitektur prosesor.

Arsitektur ARM menjadi dasar bagi sebagian besar central processing unit (CPU) di berbagai
perangkat mobile. ARM mempunyai desain arsitektur Cortex seri M, R, A, hingga seri A57.
Mereka juga memiliki desain arsitektur untuk graphics processing unit (GPU) bernama Mali.

Berikut daftar rancangan ARM dari awal hingga saat ini.

Menurut data dari ARM Holding, arsitektur ARM menguasai 95 persen arsitektur prosesor
smartphone, 35 persen televisi digital, serta 10 persen komputer mobile. Hampir semua tablet
dan smartphone unggulan, baik yang berbasis Android, iOS, BlackBerry, hingga Windows

30
Phone, memakai prosesor arsitektur ARM. Beberapa konsol game portabel, seperti Game
Boy Advance, Nintendo DS, dan PlayStation Portable, memakai prosesor ARM.

ARM juga mengekspansi bisnisnya ke pasar komputer server. Pada Mei 2012, Dell


mengumumkan Copper, server yang memakai prosesor Marvell dengan desain ARM.

Pada Oktober 2012, ARM juga mengumumkan prosesor 64-bit dari keluarga Cortex-A57
yang saat ini digunakan oleh iPhone 5s, iPad Air dan iPad Mini generasi kedua. Samsung
juga telah membeli lisensi desain ARM 64-bit untuk smartphonenya yang akan dirilis di
2014.

Perbedaan Prosessor X86 dan ARM

Prosessor X86 Prosessor ARM

 Arsitektur ARM merupakan arsitektur   Arsitektur x86 saat ini mendominasi


prosesor 32-bit RISC yang komputer desktop, komputer portabel,
dikembangkan oleh ARM Limited. dan pasar server sederhana. Bisa
Dikenal sebagai Advanced RISC menjalankan program windows karena
Machine dimana sebelumnya dikenal memang Windows di program untuk
sebagai Acorn RISC Machine. Pada beroprasi di lingkungan x86.
awalnya merupakan prosesor desktop
yang sekarang didominasi oleh
keluarga x86.

 Desainnya  yang sederhana membuat


prosesor ARM cocok untuk aplikasi
berdaya rendah.Prosesor ARM  prosesor yang menggunakan perintah
digunakan di berbagai bidang seperti rumit misal diberi  perintah
elektronik umum, termasuk PDA, menghitung 24×86 akan  akan
mobile phone, media player, music mengartikan 24 sebagai 2^4….
player, game console genggam,

31
kalkulator dan periperal komputer
seperti hard disk drive dan router.  prosesor CISC(x86) memiliki
transistor yang lebih banyak otomatis
daya  yang dibutuhkan lebih besar, dan
tidak menutup kemungkinan prosesor
 prosesor yang menggunakan perintah
yang memiliki banyak transistor akan
sederhana misal diberi  perintah
lebih cepat panas,serta membutuhkan
menghitung 24 ARM akan
memeori yang mencukupi(besar)
mengartikan perintah 24  sebagai
sehingga tidak cocok untuk perangkat-
2*2*2*2
perangkat kecil

 prosesor RISC (ARM)cenderung


 operasi floating point dan operasi
memiliki transistor jauh lebih sedikit
pembagian termasuk dalam mode
daripada prosesor CISC dengan 
pengalamatan prosessor CISC(x86)
transistor  yang lebih sedikit  itu
berarti  daya yang  digunakan juga
lebih kecil, lebih sedikit panas, dan
ruang yang sangat kecil, sehingga  Arsitektur x86 pertama kali hadir
sangat cocok untuk perangkat- melalui 8086 CPU pada tahun 1978;
perangkat kecil dengan kemepuan Intel 8086 adalah pengembangan dari
terbatas. mikroprosesor Intel 8080 (yang
dibangun mengikuti arsitektur dari
4004 dan 8008), dan program bahasa
rakitan dari 8080 dapat diterjemahkan
 operasi  floating point dan operasi
secara mekanik ke program yang setara
pembagian tidak termasuk dalam
ke bahasa rakitan untuk 8086.
mode pengalamatan prosessor
Arsitektur ini diadaptasi (dengan versi
RISC(ARM) operasi  floating point
yang lebih sederhana dari versi 8088)
dann operasi pembagian  biasanya
tiga tahun kemudian sebagai standar
diturunkan untuk coprocessors.
dari CPU pada IBM PC. Kehadiran
platform PC secara luas membuat
arsitektur x86 menjadi arsitektur CPU

32
 Proyek Acorn RISC Machine resmi yang paling sukses selama ini.
dimulai pada Oktober 1983. VLSI (Rancangan CPU lainnya yang sangat
Technology, Inc dipilih sebagai mitra sukses, yang dibagun berdasarkan
dalam memproduksi chip silikon 8080 dan kompatible pada set-instruksi
dimana sebelumnya telah hingga pada tingkatan bahasa-mesin
memproduksi ROM dan custom chip biner adalah arsitektur Zilog Z80.)
sebelumnya. Proses desain dipimpin
oleh Wilson dan Furber, dengan
tujuan utama latensi rendah (low-
 Arsitektur ini telah dua kali diperluas
latency) pada penanganan input/output
untuk mengakomodasi ukuran word
(interupsi) seperti pada prosesor MOS
yang lebih besar. Pada tahun 1985,
Technology 6502. Arsitektur 6502
Intel mengumumkan rancangan
memberikan pengembang mesin yang
generasi 386 32-bit yang menggantikan
cepat dalam pengaksesan memory
rancangan generasi 286 16-bit.
tanpa harus menggunakan perangkat
Arsitektur 32-bit ini dikenal dengan
direct access memory yang mahal.
nama x86-32 atau IA-32 (singkatan
VLSI memproduksi chip ARM
dari Intel Architecture, 32-bit).
pertama kali pada 26 April 1985 yang
Kemudian pada tahun 2003, AMD
berhasil bekerja dan dikenal sebagai
memperkenalkan Athlon 64, yang
ARM1. Dan disusul dengan ARM2
menerapkan secara lebih jauh
yang diproduksi pada tahun
pengembangan dari arsitektur ini
berikutnya dan terus berkembang.
menuju ke arsitektur 64-bit, dikenal
dengan beberapa istilah x86-64,
AMD64 (AMD), EM64T atau IA-32e
 Pada akhir 1980-an, Apple Computer (Intel), dan x64 (Microsoft).
dan VLSI Technology memulai kerja
sama dengan Acorn untuk prosesor
ARM berikutnya. Hasil kerja sama
Apple-ARM menghasilkan ARM6
pada awal tahun 1992. Apple
menggunakan ARM6 (ARM 610)
sebagai prosesor pada PDA Apple

33
Newton dan pada tahun 1994 Acorn
menggunakan ARM6 pada komputer
PC RISC. Pada frekuensi 233 MHz,
prosesor ini hanya mengonsumsi daya
sebesar 1 Watt dan versi berikutnya
lebih kecil dari itu.
 Arsitektur x86 adalah rancangan Set
Instruksi Komputer Kompleks
(Complex Instruction Set Computer)
dengan panjang instruksi yang
bervariasi. prosesor-prosesor awal dari
keluarga arsitektur ini memiliki nomor
model yang diakhiri dengan urutan
angka “86″: prosesor 8086, 80186,
80286, 386, dan 486. Karena nomor
tidak bisa dijadikan merek dagang,
Intel akhirnya menggunakan kata
Pentium untuk merek dagang
processor generasi kelima mereka.

BAB III

PENUTUP

A. Kesimpulan
Komputer adalah alat elektronik canggih yang sengat penting bagi kehidupan manusia di
era modern seperti sekarang ini, namun sebelum komputer menjadi alat alektronik canggih
dan kecil seperti sekarang ini, ternyata komputer barawal dari bentuk mesin yang sangat
besar dan susah untuk di operasikan , namun siering berjalannya waktu komputer terus
mengalami pengmbangan mulai dari generasi pertama hingga sekarang.
Awal mula perkembangan komputer adalah mulai dari di temukannya transistor,
kemudian di temukannya IC (integrated circuit), kemudian berkembang lagi setelah di

34
temukannya bahasa pemrograman yang menggantikan bahasa mesin, lalu di temukannya
mikroprosesor, hingga di temukannya sistem operasi.
Kemudian di perkenalkannya hukum moore pada perusahaan microprosesor yang
menambah kecanggihan dari microprosesor itu sendiri, selain itu arsitetur perancangannya
juga sangat di perhatikan, sehingga lahirlah teknik perancangan yang kita kenal dengan nama
arsitektur von noumann dan arsitektur harvard, sehingga sekarang kita bisa mengenal dan
menikmati kecanggihan dari alat elektronik yang kita sebut sebagai komputer generasi ke 5.

B. Saran
Demikianlah yang dapat kami sampaikan dari materi yang terkait, semoga dapat
memberikan pemahaman dan tambahan ilmu pengetahuan untuk kita semua. Saran yang
membangun sangat diperlukan untuk kesempurnaan makalah materi ini. Semoga makalah ini
dapat bermanfaat bagi penulis, pembaca, dan yang mendengarkan materi persentasi dari
makalah ini.

DAFTAR PUSTAKA :

https://fauzanmaverick.wordpress.com/2010/08/15/sejarah-komputer-dari-generasi-pertama-
hingga-sekarang/

http://alghifari-aprian.blogspot.co.id/2012/03/perbedaan-masing-masing-generasi.html

http://www.pcmedia.co.id/Detail.Asp?Id=1078&Cid=24&Eid=23
http://www.total.or.id/info.php?kk=Gordon%20Moore http://id.wikipedia.org/wiki/Hukum
Moore

http://ariarkom.blogspot.co.id/2008/09/apa-itu-hukum-
moore.htmlhttp://pujiliswarapolinpdg.blogspot.com/2005/10/1.html

35
http://dejavapoetra.blogspot.com/2011/10/arsitektur-komputer-von-neumann-harvard.html#
http://himaelektropnp.blogspot.com/2011/02/arsitektur-mikroprosesor-von-neuman-dan.html
http://rachmatsn.blogspot.com/2013/05/cisc-dan-risc-pada-saat-iniada-dua.html
http://ernisusanti33.wordpress.com/tag/sejarah-intel-x86/
http://www.jendelatekno.com/2013/10/24/prosesor-arm-prosesor-30-milyar-perangkat-
mobile/
http://blog.ub.ac.id/tantiola/2013/03/28/perbedaan-prosessor-x86-dan-arm/

36

Anda mungkin juga menyukai