Anda di halaman 1dari 23

PENGANTAR TEKNOLOGI INFORMASI DAN KOMUNIKASI

Untuk memenuhi tugas Pengantar Teknologi Informasi dan Komunikasi tentang Pengertian dan Pengenalan Komputer lewat review peserta ajar dengan pelajaran yang telah didapat

Nama: Kiki Husni Kamil NIM: 0905789

JURUSAN PENDIDIKAN ILMU KOMPUTER 2010 PENDIDIKAN UNIVERSITAS INDONESIA

DAFTAR ISI
Halaman

OUTPUT KOMPUTER 3 INPUT KOMPUTER..5 CENTRAL PROCESSING UNIT.9 STORAGE.18 BUS..21

OUTPUT KOMPUTER

Output yang dihasilkan dari pengolahan data daoat digolongkan ke dalam empat macam bentuk yaitu: 1. 2. 3. 4. Tulisan Suara Gambar Bentuk yang dapat dibaca oleh mesin (machine-readable form).

Tiga golongan pertama merupakan output yang digunakan langsugn oleh manusia. Unit Keluaran antara lain terdiri dari: monitor, printer, plotter dan speaker. a. Monitor Monitor merupakan unit keluaran yang memberikan informasi kepada pengguna komputer. Tipe-tipe monitor yang sudah dikenal adalah. (1) CGA (Color Graphic Adapter) Tipe monitor standar IBM yang mempunyai kualitas resolusi rendah. Monitor ini hanya mampu menampilkan 4 warna dalam mode grafis. (2) EGA (Enhanced Graphic Adapter) EGA merupakan tipe monitor yang tingkatannya di atas CGA. Monitor ini mampu menampilkan 16 warna dalam mode grafis. (3) EPGA (Enchanced Professional Graphic Adapter) Monitor ini mampu menampilkan 256 warna pada mode grafis. Monitor ini disebut juga sebagai monitor PEGA atau PGA. (4) VGA (Visual Graphic Adapter) VGA merupakan tipe monitor yang sekarang banyak digunakan. Gambar yang dihasilkan mempunyai warna sampai jutaan. Mode grafisnya tampak lebih nyata di mata. (5) LCD (Liquid Crystal Display) LCD dikenal sebagai monitor flat atau latar data dengan resolusi rendah yang memiliki kemampuan menampilkan warna sampai jutaan. LCD menggunakan persenyawaan cair yang mempunyai struktur molekul polar dan diapit oleh dua elektrode yang transparan. b. Printer Printer adalah sebuah peralatan dari komputer yang dapat mencetak teks atau gambar ke media kertas atau media lainnya seperti kertas transparasi. Printer berdasarkan alat mekanik atau proses kerjanya yang digunakan adalah: (1) Impact, printer secara bekerja dengan kertas di mana proses cetaknya dengan menggunakan jarum yang menghasilkan titik kotak (dot matrix). (2) Non Impact, printer yang bekerja secara mekanik, yaitu penyemprotan dan elektronik pada media cetaknya. Berdasarkan perkembangan teknologinya: (1) Pink Dot Matrix (2) Ink Jet (3) Laser

(4) Thermal Pink Dot Matrix diklasifikasikan berdasarkan jumlah pin yang dimiliki oleh head printer. Yaitu 9, 18 dan 24. Transmisi yang digunakan yaitu transmisi pararel (byte-by-byte) dan transmisi serial (byte-by-byte transmission). Metode percetakan terdiri dari huruf per huruf (character by character), baris per baris (line by line) atau halaman per halaman (page by page). Secara umum printer yang umum digunakan terdiri dari tiga jenis, yaitu: (1) Dot Matrix, contohnya Epson LX-300, LX-800, PQ-1170 (2) Inkjet, contohnya Hp Deskjet, Cannon Buble Jet (3) Laser Jet, contohnya Hp Laser Jet 1000, 1010, 1020 c. Plotter Plotter digunakan untuk mencetak gambar ukuran yang cukup besar, seperti gambar mesin dan konstruksi bangunan. d. Speaker Speaker akan memberikan informasi dalam bentuk suara. Apabila anda mendengarkan lagu melalui komputer yang terhubung Internet dan terhubung pada salurang pemancar radion online, makan unit keluaran yang diperlukan adalah speaker.

INPUT KOMPUTER

Input adalah energi yang dimasukan ke dalam suatu sistem. Signal input adalah data yang dimasukan ke sistem komputer. Maintenance input adalah program yang digunakan untuk mengolah data yang dimasukan. Terminal dapat digolongkan sebagai berikut: Non Intelligent Terminal Smart Terminal Intelligent Terminal 1. Non Intelligent Terminal Non intelligent terminal terbatas hanya berfungsi sebagai alat pemasukan input dan penampilan output saja. Terminal seperti ini tidak bisa diproses karena tidak mempunyai processor. Non intelligent terminal disebut juga dengan nama dump terminal. 2. Smart Terminal Smart terminal mempunyai suatu microprocessor dan beberapa internal memory di dalamnya. Dengan smart terminal, input yang sudah terlanjut dimasukkan dapat dikoreksi kembali. Smart terminal tidak dapat diprogram oleh pemakai komputer. 3. Intelligent Terminal Intelligent terminal disebut juga dengan nama logic terminal atau programmable terminal, karena dapat diprogram oleh pemakai komputer. intelligent terminal juga mempunyai micro processor dan internal memory di dalamnya. Input dapat dimasukkan ke terminal ini, dikoreksi kembali bila masih salah, dan dapat dikirimkan ke pusat komputer bila dihubungkan dengan pusat komputer untuk di proses. Alat Input Langsung Alat input langsung memungkinkan CPU dapat memproses langsung tanpa dimasukkan ke media simpanan luar. Alat input langsung dapat digolongkan ke dalam beberapa golongan, yaitu Keyboard, Pointing Device, Scanner, Sensor dan Voice Recognizer. 1. Keyboard Papan ketik (bahasa Inggirs: keyboard) atau kibor adalah peranti untuk mengetik atau memasukkan huruf, angka, atau simbol tertentu ke perangkat lunak atau sistem operasi yang dijalankan oleh komputer. Papan ketik terdiri atas tombol berbetnuk kotak dengan huruf, angaka atau simbol yang tercetak di atasnya. Dalam beberapa sistem operasi, apabila dua tombol ditekan secara bersamaan maka akan memunculkan fungsi khusus atau pintasan yang telah diatur sebelumnya. Ada berbagai jenis tata letak tombol pada papan ketik. Akan tetapi, yang paling popular dan umum digunakan adalah tata letak QWERTY, meniru sistem tata letak mesin ketik.

Papan ketik tipe baru biasanya mempunyai tombol tambahan di atas tombol fungsi (F1, F2, dst.) untuk mempermudah pengguna dalam mengoperasikan komputer. Selain itu, papan ketik baru juga sudah banyak yang mendukung teknologi nirkabel. Keyboard (papan tuts/tombol) adalah alat input yang paling umum dan banyak digunakan. Input dimasukkan ke alat proses denga cara mengetikkan lewat penekanan tombol yang ada di keyboard. 2. Mouse Tetikus atau yang lebih dikenal dengan nama mouse adalah alat yang digunakan untuk memasukkan data ke dalam komputer selain papan ketik. Tetikus berbentuk seperti seekor tikus sehingga dalam bahasa Inggris peranti ini disebut mouse. Tetikus pertama kali dibuat pada tahun 1963 oleh Douglas Engelbart barbagan kayu denga satu tombol. Model kedua sudah dilengkapi denga 3 tombol. Pada tahun 1970, Douglas Engelbart memperkenalkan tetikus yang dapat mengetahui posisi X-Y pada layar komputer, tetikus ini dikenal dengan nama X-Y Position Indicator (indicator posisi X-Y). Bentuk tetikus yang paling umum mempunyai dua tombol, masing-masing di sebelah kiri atas dan kanan atas yang dapat ditekan. Walaupun demikian, komputer-komputer berbasis Macintosh biasanya menggunakan tetikus satu tombol. Tetikus bekerja dengan menangkap gerakkan menggunakan bola yang menyentuh permukaan keras dan rata. Tetikus yang lebih modern sudah tidak menggunakan bola lagi, tetapi menggunakan sinar optikal untuk mendeteksi gerakan. Selain itu, ada pula yang sudah menggunakan teknologi nirkabel, baik yang berbasis radio, sinar inframerah, maupun Bluetooth. Selain itu, teknologi terbaru sudah memungkinkan tetikus memakai sistem laser sehingga resolusinya dapat mencapai 2000 titik per inci (dpi), bahkan ada yang bisa mencapai 4.800 titik per inci. Biasanya tetikus semacam ini diperuntukkan bagi penggemar permainan video. Mouse adalah pointing device yang digunakan untuk mengatur posisi cursor di layar. Denga menggesser mouse di bidang yang datar, misalnya meja, cursor di layar akan bergeser sesuai dengan arah dan pergeseran mouse. Paten bola tetikus pertama sebelah kiri adalah roda trek berlawanan oleh Englebart, dengan nomor paten 3541541 (Inggris) November 1970. Gambar tengah adalah bola dan roda oleh Rider, dengan nomor paten 3835464 (Inggris) September 1974. Kanan adalah bola dan dua penggelinding oleh Opocentsky, dengan nomor paten 3987685 (Inggris) Oktober 1976. Bagian dalam tetikus mekanik yang dipreteli. Bagian bawah adalah tetikus, kiri atas adalah bola dan kanan atas adalah pengait. Tetikus optikal buatan Logitech bersensor laser dengan ketelitian mencapai 4.800 titik per inci, nirkabel degan memanfaatkan gelombang radio. 3. Touch Screen Layar sentuh atau dalam bahasa Inggris Touchscreens, touch screens, touch panels atau touchscreen panels adalah layar tampilan komputer yang sensitif terhadap sentuhan manusia, sehingga seseorang dapat berinteraksi dengan komputer dengan cara menyentuh gambar atau tulisan yang terpampang pada layar komputer. Touchscreen sering dipakai pada kios informasi ditempat-tempat umum, misalnya di bandara dan rumah sakit serta pada perangkat pelatihan berbasis komputer.

4.

5.

6.

7.

8.

9.

10.

11.

Sistem touchscreen tersedia dalam bentuk monitor yang sudah memiliki kemampuan layar sensitif sentuhan dan ada juga kit touchscreen yang lebih ekonomis yang dapat dipasang pada monitor yang sudah ada. Touch screen (Iayar sentuh) adalah layar monitor yang akan mengaktifkan program bila bagian tertentu di layar disentuh dengan tangan. Light Pen Alat input data dengan menggunakan pena elektronik yang disentuh ke layar (screen), banyak digunakan untuk membuat grafik dan gambar di dalam perencanaan dengan bantuan komputer CAD (computer aided design). Digitizer Graphics Tablet Alat input data yang menyerupai pena dengan menggunakan digitizer graphics tablet memungkinkan user menggambar grafik gambar dengan menghubungkan dua titik hasilnya dapat dilihat di layar. Scanner Pemindai atau scanner merupakan suatu alat yang digunakan untuk memindai suatu bentuk maupun sifat benda, seperti dokumen, foto, gelombang, suhu dan lain-lain. Hasil pemindaian itu pada umumnya akan ditransformasikan ke dalam komputer sebagai data digital. Terdapat beberapa jenis pemindai bergantung pada kegunaan dan cara kerjanya, antara lain: Pemindai gambar Pemindai barcode Pemindai sinar X Pemindai Cek Pemindai Logam Pemindai Optical Mark Reader (OMR) Magnetic Ink Character Recognition (MICR) Bentuk pertama dan alat peraba (scanner) adalah alat pembaca pengenal karakter tinta magnetik atau Magnetic Ink Character Recognition (MICR) reader. MICR reader banyak digunakan bank-bank saat ini untuk transaksi menggunakan cek. Optical Data Reader Optical data reader mempunyai kemampuan untuk membaca data Iangsung dan kertas biasa dan tanpa menggunakan tinta magnetik yang khusus. Optical data reader dapat berupa Optical Character Recognition (OCR) reader, OCR tag reader, bar code wand, dan Optical Mark Recognition (OMR) reader. Key to Card Salah satu alat memasukkan data yang paling tua adalah keypunch atau key-to-card. Alat ini memungkinkan operator memasukkan data yang akan dipindahkan terlebih dahulu ke dalam bentuk media punched card (kartu plong atau kartu pon). Key to Tape Alat ini memungkinkan operator untuk merekamkan data ke media simpanan luar pita magnetik terlebih dahulu sebelum diproseskan ke CPU. Key to Disk

Seperti key-to-cord atau key-to-tape, rnaka key-to-disk memungkan operator untuk merekamkan data terlebih dahulu ke media simpanan luar, dalam hal ini ada!ah disk magnetik, media penyimpanan dalam bentuk 3.5-inch floppy disk dan Compact Disk. Data yang tersirnpan di diskette atau CD, kemudian dapat dibacakan ke komputer untuk diproses oleh CPU melalui alat penggerak disk (disk drive). Dengan semakin murahnya komputer mikro, sekarang sebagai pengganti alat key-to-disk dapat dipergunakan komputer mikro.

CENTRAL PROCESSING UNIT


Unit pengolah pusat (CPU) adalah bagian dari sebuah sistem komputer yang melakukan instruksi dari program komputer, dan merupakan unsur utama melaksanakan fungsi-fungsi komputer. Unit pengolah pusat melaksanakan setiap instruksi dari program secara berurutan, untuk melakukan aritmatika dasar, logis, dan operasi input / output dari sistem. Istilah ini telah digunakan dalam industri komputer setidaknya sejak awal 1960-an. Bentuk, desain dan implementasi dari CPU telah berubah secara dramatis sejak dari contoh awal, tetapi operasi dasar mereka tetap sama. Awal CPU yang dirancang khusus sebagai bagian dari, satu jenis komputer kadang-kadang lebih besar. Namun, metode mahal merancang CPU kustom untuk aplikasi tertentu sebagian besar telah diberikan cara untuk perkembangan prosesor yang diproduksi secara massal yang dibuat untuk satu atau banyak tujuan. Kecenderungan ini standardisasi umumnya dimulai di era mainframe transistor diskrit dan minicomputer dan telah dengan cepat dipercepat dengan popularisasi dari sirkuit terintegrasi (IC). IC telah memungkinkan CPU semakin kompleks harus dirancang dan diproduksi untuk toleransi atas perintah nanometer. Baik miniaturisasi dan standarisasi dari CPU telah meningkatkan kehadiran perangkat digital dalam kehidupan modern jauh melampaui aplikasi terbatas mesin komputasi khusus. microprocessors modern muncul dalam segala hal dari mobil ke ponsel dan mainan anak-anak. A. Sejarah Komputer seperti ENIAC harus secara fisik rewired dalam rangka untuk melakukan tugas yang berbeda, yang menyebabkan mesin ini disebut "fixed-computer program." Karena "CPU" Istilah umum didefinisikan sebagai perangkat lunak (program komputer) perangkat pelaksanaan, perangkat awal yang tepat bisa disebut CPU dengan munculnya komputer yang menyimpan program. Gagasan tentang program komputer yang disimpan-sudah hadir dalam desain J. Presper Eckert dan John William Mauchly ENIAC, tapi pada awalnya dihilangkan sehingga mesin bisa selesai lebih cepat. Pada tanggal 30 Juni 1945, sebelum ENIAC bahkan selesai, matematikawan John von Neumann membagikan makalah berjudul "First Draft Laporan di EDVAC". Hal ini diuraikan desain dari sebuah komputer disimpan-program yang pada akhirnya akan selesai pada bulan Agustus 1949. EDVAC dirancang untuk melakukan sejumlah instruksi (atau operasi) dari berbagai jenis. Instruksi ini dapat dikombinasikan untuk membuat program yang berguna bagi EDVAC untuk menjalankan. Secara signifikan, program yang ditulis untuk EDVAC disimpan di memori komputer berkecepatan tinggi lebih dari yang ditentukan oleh kabel fisik dari komputer. Ini mengatasi pembatasan parah ENIAC, yang merupakan waktu dan usaha yang dibutuhkan untuk mengkonfigurasi ulang komputer untuk melakukan tugas baru. Dengan desain von Neumann, program, atau perangkat lunak, yang berlari EDVAC dapat diubah hanya dengan mengubah isi dari memori komputer.

Sementara von Neumann yang paling sering dikreditkan dengan desain komputer yang disimpan-program karena desain nya EDVAC, lain sebelum dia, seperti Konrad Zuse, telah menyarankan dan menerapkan ide yang sama. Arsitektur Harvard disebut dari Harvard Mark I yang selesai sebelum EDVAC, juga menggunakan desain yang disimpan-program menggunakan pita kertas menekan daripada memori elektronik. Perbedaan utama antara von Neumann dan Harvard arsitektur adalah bahwa yang kedua memisahkan penyimpanan dan perawatan instruksi CPU dan data, sementara mantan menggunakan ruang memori yang sama untuk kedua. Kebanyakan CPU modern terutama von Neumann dalam desain, tetapi elemen dari arsitektur Harvard yang biasanya terlihat juga. Sebagai perangkat digital, CPU terbatas pada satu set keadaan diskrit, dan membutuhkan beberapa jenis switching untuk membedakan antara unsur-unsur dan negara berubah. Sebelum pembangunan komersial dari transistor, relay listrik dan tabung vakum (katup termionik) umum digunakan sebagai elemen switching. Meskipun memiliki keunggulan kecepatan yang berbeda dari sebelumnya, desain mekanik murni, mereka dapat diandalkan untuk berbagai alasan. Misalnya, bangunan langsung sirkuit saat sequential logic keluar dari relay memerlukan perangkat keras tambahan untuk mengatasi masalah bouncing kontak. Sementara tabung vakum tidak menderita dari bouncing kontak, mereka harus panas sebelum menjadi sepenuhnya operasional, dan mereka akhirnya berhenti berfungsi karena memperlambat kontaminasi dari katoda mereka yang terjadi dalam kegiatan operasi normal. Jika kebocoran segel tabung's vakum, seperti yang terjadi, kontaminasi katoda dipercepat. Biasanya, ketika tabung gagal, CPU harus didiagnosis untuk menemukan komponen gagal sehingga bisa diganti. Oleh karena itu, awal elektronik (tabung vakum based) komputer pada umumnya lebih cepat tetapi kurang dapat diandalkan dibandingkan elektromekanis (relay based) komputer. Tube komputer seperti EDVAC cenderung rata-rata delapan jam antara kegagalan, sedangkan komputer relay seperti (lebih lambat, tetapi sebelumnya) Harvard Mark I gagal sangat jarang. Pada akhirnya, CPU berbasis tabung menjadi dominan karena keunggulan kecepatan yang signifikan diberikan pada umumnya melebihi masalah kehandalan. Kebanyakan CPU sinkron awal berlari pada tingkat clock rendah dibandingkan dengan desain mikroelektronik modern (lihat di bawah untuk pembahasan laju jam). Jam sinyal frekuensi antara 100 kHz sampai 4 MHz sangat umum pada saat ini, sebagian besar dibatasi oleh kecepatan perangkat switching yang mereka bangun. B. Transistor Diskrit dan CPU Sirkuit Terpadu

10

Kompleksitas desain CPU meningkat berbagai teknologi difasilitasi membangun perangkat elektronik yang lebih kecil dan lebih handal. Perbaikan pertama yang datang dengan munculnya transistor. Transistorized CPU selama 1950-an dan 1960-an tidak lagi harus dibangun dari elemen switching besar, tidak dapat diandalkan, dan rapuh seperti tabung vakum dan relay listrik. Dengan peningkatan ini lebih kompleks dan handal CPU dibangun ke salah satu atau beberapa papan sirkuit tercetak mengandung diskrit (individu) komponen. Selama periode ini, metode manufaktur banyak transistor dalam ruang kompak mendapatkan popularitas. Sirkuit terpadu (IC) memungkinkan sejumlah besar transistor akan diproduksi pada mati semikonduktor berbasis tunggal, atau "chip." Pada awalnya hanya sangat dasar sirkuit digital non-khusus seperti gerbang NOR adalah miniatur ke IC. CPU ini berdasarkan "blok bangunan" IC umumnya disebut sebagai "integrasi skala kecil" (SSI) perangkat. IC SSI, seperti yang digunakan di komputer bimbingan Apollo, biasanya berisi transistor jumlah penomoran dalam kelipatan sepuluh. Untuk membangun keluar seluruh CPU IC SSI diperlukan ribuan chip individu, tapi masih dikonsumsi banyak ruang lebih sedikit dan kekuasaan daripada sebelumnya desain transistor diskrit. Sebagai teknologi mikroelektronik maju, peningkatan jumlah transistor yang ditempatkan pada IC, sehingga menurunkan jumlah IC individu yang dibutuhkan untuk CPU lengkap. MSI dan LSI (integrasi menengah dan skala besar) IC peningkatan jumlah transistor ke ratusan, kemudian ribuan. Pada tahun 1964 IBM memperkenalkan System/360 arsitektur komputer yang digunakan dalam rangkaian komputer yang dapat menjalankan program yang sama dengan kecepatan yang berbeda dan kinerja. Ini adalah signifikan pada saat komputer elektronik sebagian besar tidak sesuai dengan satu sama lain, bahkan yang dibuat oleh produsen yang sama. Untuk memfasilitasi perbaikan ini, IBM memanfaatkan konsep microprogram (sering disebut "microcode"), yang masih melihat penggunaan luas dalam CPU modern. Arsitektur System/360 begitu populer sehingga mendominasi pasar komputer mainframe selama puluhan tahun dan meninggalkan warisan yang masih dilanjutkan dengan komputer modern mirip seperti zSeries IBM. Pada tahun yang sama (1964), Digital Equipment Corporation (DEC) memperkenalkan komputer lain berpengaruh ditujukan untuk pasar ilmiah dan penelitian, PDP-8. DEC kemudian akan memperkenalkan PDP-11 sangat populer baris yang awalnya dibangun dengan SSI IC namun akhirnya dilaksanakan dengan komponen LSI kali ini menjadi praktis. Berbeda sekali dengan perusahaan SSI dan MSI pendahulunya, pelaksanaan LSI pertama dari PDP-11 berisi CPU terdiri dari hanya empat sirkuit terpadu LSI. Transistor berbasis komputer memiliki beberapa keuntungan yang berbeda dari para pendahulu mereka. Selain memfasilitasi peningkatan kehandalan dan konsumsi daya yang rendah, transistor juga memungkinkan CPU untuk beroperasi pada kecepatan lebih tinggi karena waktu yang singkat switching transistor dibandingkan dengan tabung atau relay. Berkat baik peningkatan kehandalan serta kecepatan meningkat drastis dari elemen switching (yang hampir secara eksklusif transistor pada saat ini), tingkat clock CPU dalam puluhan megahertz diperoleh

11

selama periode ini. Selain itu sementara transistor diskrit dan IC CPU yang dalam penggunaan berat, baru berkinerja tinggi desain seperti SIMD (Single Instruction Multiple Data) prosesor vektor mulai muncul. Awal eksperimen desain ini kemudian memunculkan era superkomputer khusus seperti yang dibuat oleh Cray Inc. C. Mikroprosesor Pengenalan mikroprosesor di 1970-an secara signifikan mempengaruhi desain dan implementasi CPU. Sejak diperkenalkannya mikroprosesor yang tersedia secara komersial pertama (Intel 4004) pada tahun 1970 dan banyak digunakan mikroprosesor pertama (Intel 8080) pada tahun 1974, kelas ini CPU hampir sepenuhnya menyusul semua metode pemrosesan unit pelaksana pusat lainnya. Mainframe dan komputer mini produsen saat meluncurkan program kepemilikan IC pengembangan untuk meningkatkan arsitektur komputer yang lebih tua mereka, dan akhirnya menghasilkan set instruksi mikroprosesor yang kompatibel yang mundur-kompatibel dengan hardware dan software mereka yang lebih tua. Dikombinasikan dengan munculnya dan kesuksesan besar akhirnya komputer pribadi sekarang di mana-mana, dengan "CPU" istilah sekarang diterapkan hampir secara eksklusif untuk mikroprosesor. Sebelumnya generasi CPU yang telah dilaksanakan sebagai komponen diskrit dan banyak sirkuit kecil terpadu (IC) pada satu atau lebih papan sirkuit. Mikroprosesor, di sisi lain, adalah CPU diproduksi pada jumlah yang sangat kecil IC yang biasanya hanya satu. Semakin kecil ukuran keseluruhan CPU sebagai hasil dari diimplementasikan pada single die berarti lebih cepat waktu switching karena faktor fisik seperti penurunan kapasitas gerbang parasit. Hal ini telah memungkinkan mikroprosesor sinkron memiliki tingkat jam mulai dari puluhan megahertz untuk beberapa gigahertz. Selain itu, sebagai kemampuan untuk membangun sangat transistor kecil pada IC telah meningkat, kompleksitas dan jumlah transistor dalam sebuah CPU tunggal telah meningkat secara dramatis. Kecenderungan ini diamati secara luas digambarkan oleh hukum Moore, yang telah terbukti menjadi prediktor yang cukup akurat pertumbuhan CPU (dan IC lainnya) kompleksitas ke tanggal. Sedangkan konstruksi, ukuran kompleksitas, dan bentuk umum dari CPU telah berubah secara drastis selama enam puluh tahun terakhir, perlu dicatat bahwa desain dasar dan fungsi tidak banyak berubah sama sekali. Hampir semua hari ini CPU umum bisa sangat akurat digambarkan sebagai disimpan-program von Neumann mesin. Sebagai hukum Moore tersebut yang terus terus benar, kekhawatiran telah muncul mengenai batasbatas teknologi transistor sirkuit terpadu. Extreme miniaturisasi gerbang elektronik yang menyebabkan efek dari fenomena seperti ELEKTROMIGRASI dan kebocoran subthreshold untuk menjadi jauh lebih signifikan. Keprihatinan ini baru adalah salah satu dari banyak faktor yang menyebabkan

12

peneliti untuk menyelidiki metode baru komputasi seperti komputer kuantum, serta untuk memperluas penggunaan paralelisme dan metode lain yang memperpanjang kegunaan dari model von Neumann klasik. D. Operasi Operasi dasar dari CPU sebagian besar, terlepas dari bentuk fisik mereka ambil, adalah untuk mengeksekusi urutan instruksi yang tersimpan disebut program. Program ini diwakili oleh serangkaian nomor yang disimpan dalam beberapa jenis memori komputer. Ada empat langkah yang hampir semua CPU digunakan dalam operasi mereka: fetch, decode, melaksanakan, dan writeback. Langkah pertama, mengambil, melibatkan mengambil sebuah instruksi (yang diwakili oleh nomor atau urutan angka) dari memori program. Lokasi dalam memori program ditentukan oleh program counter (PC), yang menyimpan angka yang menunjukkan posisi saat ini dalam program. Dengan kata lain, program counter melacak tempat CPU dalam program saat ini. Setelah instruksi diambil, PC bertambah dengan panjang dari kata instruksi dalam hal unit memori Sering. Instruksi yang akan diambil harus diambil dari memori yang relatif lambat, menyebabkan CPU untuk warung sambil menunggu instruksi untuk dikembalikan. Masalah ini sebagian besar dibahas dalam prosesor modern oleh cache dan arsitektur pipa (lihat di bawah). Instruksi yang CPU mengambil dari memori digunakan untuk menentukan apa CPU adalah melakukan. Pada langkah decode, instruksi yang dipecah menjadi bagian-bagian yang memiliki signifikansi untuk bagian lain dari CPU. Cara di mana instruksi nilai numerik ditafsirkan didefinisikan oleh arsitektur set instruksi CPU (ISA). Sering kali, satu kelompok nomor dalam instruksi, disebut opcode,. Mengindikasikan yang operasi untuk melaksanakan. Sisa bagian nomor biasanya menyediakan informasi yang diperlukan untuk instruksi tersebut, seperti operan untuk operasi penjumlahan. operan tersebut dapat diberikan sebagai nilai konstan (disebut nilai langsung), atau sebagai tempat untuk mencari nilai: register atau alamat memori, sebagaimana ditentukan oleh beberapa mode pengalamatan. Dalam desain yang lebih tua bagian dari CPU yang bertanggung jawab untuk decoding instruksi adalah perangkat keras berubah. Namun, dalam CPU lebih abstrak dan rumit dan ISA, microprogram sering digunakan untuk membantu dalam menerjemahkan instruksi menjadi sinyal-sinyal berbagai konfigurasi CPU. microprogram ini kadang-kadang ditulis ulang sehingga dapat dimodifikasi untuk mengubah cara decode CPU petunjuk bahkan setelah telah dibuat. Setelah mengambil dan decode langkah, langkah eksekusi dilakukan. Selama langkah ini, berbagai bagian CPU dihubungkan sehingga mereka dapat melakukan operasi yang diinginkan. Jika, misalnya, sebuah operasi penjumlahan diminta, unit aritmatika logika (ALU) akan terhubung ke satu set input dan satu set output. Masukan menyediakan nomor yang akan ditambahkan, dan output akan berisi jumlah akhir. ALU berisi sirkuit untuk melakukan operasi aritmetika sederhana dan logis pada input (seperti penambahan dan operasi bitwise). Jika operasi penjumlahan menghasilkan hasil yang terlalu besar untuk CPU untuk menangani, sebuah overflow aritmetika bendera dalam register bendera juga dapat ditetapkan. Langkah terakhir, writeback, hanya "menulis kembali" hasil eksekusi langkah untuk beberapa bentuk memori. Sangat sering hasilnya ditulis untuk beberapa CPU internal mendaftar untuk akses cepat oleh instruksi berikutnya. Dalam kasus lain hasil dapat ditulis lebih lambat, tapi lebih

13

murah dan lebih besar, memori utama. Beberapa jenis instruksi memanipulasi program counter daripada secara langsung menghasilkan data hasil. Biasanya ini disebut "melompat" dan memfasilitasi perilaku seperti loop, pelaksanaan program bersyarat (melalui penggunaan lompatan bersyarat), dan fungsi dalam program petunjuk. Banyak juga akan mengubah keadaan digit dalam sebuah "bendera" mendaftar. Flag-flag ini dapat digunakan untuk mempengaruhi bagaimana sebuah program berperilaku, karena mereka sering menunjukkan hasil dari berbagai operasi. Sebagai contoh, satu jenis instruksi "membandingkan" menganggap dua nilai dan menetapkan nomor dalam register flag menurut mana yang lebih besar. Flag ini kemudian bisa digunakan oleh instruksi jump kemudian untuk menentukan aliran program. Setelah pelaksanaan instruksi dan writeback data yang dihasilkan, mengulangi seluruh proses, dengan siklus instruksi berikutnya biasanya mengambil berikutnya-di-urutan instruksi karena nilai bertambah dalam program counter. Jika instruksi selesai adalah melompat, program counter akan dimodifikasi mengandung alamat dari instruksi yang melompat, dan pelaksanaan program terus normal. Dalam CPU yang lebih kompleks dari yang dijelaskan di sini, beberapa instruksi dapat diambil, diterjemahkan, dan dilaksanakan secara bersamaan. Bagian ini menjelaskan apa yang umumnya disebut sebagai "pipa RISC Classic", yang sebenarnya cukup umum di kalangan CPU sederhana yang digunakan dalam perangkat elektronik banyak (sering disebut mikrokontroler). Ini sebagian besar mengabaikan peran penting dari cache CPU, dan oleh karena itu tahap akses pipa. E. Desain dan Emplementasi (1) Kisaran Integer Cara CPU merupakan angka adalah pilihan desain yang mempengaruhi cara yang paling dasar di mana fungsi perangkat. Beberapa komputer digital awal digunakan model listrik dari desimal umum (sepuluh dasar) sistem angka untuk mewakili nomor internal. Sebuah komputer beberapa lainnya telah menggunakan sistem angka lebih eksotik seperti terner (base tiga). Hampir semua CPU modern merupakan angka dalam bentuk biner, dengan setiap digit yang diwakili oleh beberapa besaran fisik dua-dihargai seperti tegangan "tinggi" atau "rendah". MOS 6502 mikroprosesor dalam paket dual in-line, desain 8-bit yang sangat populer. Terkait dengan representasi angka adalah ukuran dan presisi angka yang CPU dapat mewakili. Dalam kasus CPU biner, sedikit mengacu pada satu tempat yang signifikan dalam jumlah CPU dengan sebuah kesepakatan. Jumlah bit (atau tempat angka) CPU digunakan untuk mewakili angka tersebut sering disebut "kata ukuran", "agak lebar", "data jalur lebar", atau "presisi integer" ketika berhadapan dengan angka ketat integer (sebagai lawan mengambang titik). Angka ini berbeda untuk setiap arsitektur, dan seringkali dalam berbagai bagian dari CPU yang sama. Sebagai contoh, sebuah kesepakatan CPU 8-bit dengan kisaran angka yang dapat diwakili oleh delapan digit biner (masing-masing memiliki dua nilai yang mungkin digit), yaitu 28 atau 256 nomor diskrit. Akibatnya, ukuran integer menetapkan batas hardware pada kisaran bilangan bulat perangkat lunak dijalankan oleh CPU dapat dimanfaatkan.

14

Integer jangkauan juga dapat mempengaruhi jumlah lokasi dalam memori CPU dapat alamat (mencari). Sebagai contoh, jika CPU biner menggunakan 32 bit untuk mewakili alamat memori, dan setiap alamat memori merupakan salah satu oktet (8 bit), jumlah maksimum memori yang CPU dapat alamat 232 octets, atau 4 GiB. Ini adalah pandangan yang sangat sederhana dari CPU ruang alamat, dan desain banyak menggunakan metode pengalamatan yang lebih kompleks seperti paging dalam rangka untuk mencari memori lebih dari rentang integer mereka akan memungkinkan dengan ruang alamat datar. Tingkat yang lebih tinggi dari jangkauan integer membutuhkan struktur yang lebih berurusan dengan digit tambahan, dan kompleksitas karena itu lebih, ukuran, penggunaan listrik, dan beban umum. Hal ini sama sekali tidak biasa, karena itu, untuk melihat 4 - atau mikrokontroler 8-bit yang digunakan dalam aplikasi modern, meskipun CPU dengan range jauh lebih tinggi (seperti 16, 32, 64, bahkan 128-bit) yang tersedia. Mikrokontroler sederhana biasanya lebih murah, menggunakan daya yang lebih kecil, dan karena itu mengusir panas yang lebih sedikit, yang semuanya dapat menjadi pertimbangan desain utama untuk perangkat elektronik. Namun, dalam aplikasi yang lebih tinggi-end, manfaat yang diberikan oleh berbagai tambahan (paling sering ruang alamat tambahan) yang lebih signifikan dan sering mempengaruhi pilihan desain. Untuk mendapatkan beberapa keuntungan yang diberikan oleh kedua panjang bit yang lebih rendah dan lebih tinggi, banyak CPU yang dirancang dengan lebar bit yang berbeda untuk bagian yang berbeda dari perangkat. Misalnya, IBM System/370 menggunakan CPU yang terutama 32 bit, tetapi digunakan presisi 128-bit floating unit dalam keunggulan untuk memfasilitasi akurasi yang lebih besar dan berbagai angka floating point. Banyak desain CPU kemudian penggunaan serupa campuran agak lebar, terutama ketika prosesor dimaksudkan untuk penggunaan umum tujuan mana keseimbangan yang wajar integer dan kemampuan floating point yang diperlukan. (2) Clock Rate Tingkat clock adalah kecepatan di mana mikroprosesor yang mengeksekusi instruksi. Setiap komputer berisi clock internal yang mengatur tingkat di mana instruksi yang dieksekusi dan mensinkronkan semua komponen komputer berbagai. CPU membutuhkan sejumlah tetap kutu jam (atau jam siklus) untuk mengeksekusi setiap instruksi. Jam cepat, instruksi yang lebih CPU dapat melaksanakan per detik Kebanyakan CPU, dan perangkat logika memang paling sekuensial, yang sinkron di alam. Artinya, mereka dirancang dan beroperasi pada asumsi tentang sinyal sinkronisasi. Sinyal, yang dikenal sebagai sinyal clock, biasanya mengambil bentuk gelombang persegi periodik. Dengan menghitung waktu maksimum sinyal listrik yang dapat bergerak dalam berbagai cabang banyak sirkuit CPU, para desainer dapat memilih jangka waktu yang sesuai untuk sinyal clock. Periode ini harus lebih dari jumlah waktu yang dibutuhkan sinyal untuk bergerak, atau menyebarkan, dalam skenario terburuk. Dalam menetapkan jam periode ke nilai jauh di atas delay propagasi terburuk, adalah mungkin untuk merancang seluruh CPU dan cara memindahkan data sekitar "pinggiran" dari sinyal clock naik dan turun. Hal ini memiliki keuntungan untuk menyederhanakan CPU secara signifikan, baik dari perspektif desain dan

15

perspektif komponen-hitungan. Namun, ia juga membawa kelemahan bahwa seluruh CPU harus menunggu elemen paling lambat, meskipun beberapa bagian itu jauh lebih cepat. Keterbatasan ini sebagian besar telah dikompensasikan dengan berbagai metode paralelisme CPU meningkat. Namun, perbaikan arsitektur saja tidak menyelesaikan semua kelemahan CPU global sinkron. Misalnya, suatu sinyal jam tunduk pada penundaan dari setiap sinyal listrik lainnya. Tingkat clock yang lebih tinggi pada CPU semakin kompleks membuat lebih sulit untuk menjaga sinyal clock dalam fase (disinkronkan) sepanjang seluruh unit. Hal ini telah membuat CPU modern membutuhkan beberapa sinyal clock identik yang akan diberikan untuk menghindari menunda sinyal tunggal cukup signifikan untuk menyebabkan CPU tidak berfungsi. Satu masalah utama sebagai kenaikan tarif jam dramatis adalah jumlah panas yang disebarkan oleh CPU. Jam terus berubah menyebabkan banyak komponen untuk beralih terlepas dari apakah mereka sedang digunakan pada saat itu. Secara umum, komponen yang beralih menggunakan energi lebih dari sebuah elemen dalam keadaan statis. Oleh karena itu, dengan meningkatnya laju jam, begitu pula disipasi panas, menyebabkan CPU membutuhkan solusi pendinginan lebih efektif. Salah satu metode untuk menangani switching komponen yang tidak dibutuhkan disebut gating jam, yang melibatkan mematikan sinyal clock untuk komponen yang tidak diperlukan (efektif mematikan mereka). Namun, hal ini sering dianggap sebagai sulit untuk dilaksanakan dan karena itu tidak melihat penggunaan umum luar yang sangat desain daya rendah. Satu menonjol akhir desain CPU yang menggunakan gating jam adalah bahwa dari Xbox IBM berbasis PowerPC 360. Ini menggunakan gating clock luas dalam rangka mengurangi kebutuhan daya dari konsol videogame tersebut di mana ia digunakan. Cara lain untuk mengatasi beberapa masalah dengan sinyal clock global adalah penghapusan dari sinyal clock sama sekali. Saat mengeluarkan sinyal clock global membuat proses desain yang jauh lebih kompleks dalam banyak hal, asynchronous (atau clockless) desain ditandai membawa keuntungan dalam konsumsi daya dan disipasi panas dibandingkan dengan desain sinkron serupa. Sementara agak jarang, CPU seluruh asynchronous telah dibangun tanpa menggunakan sinyal clock global. Dua contoh penting dari ini adalah Amulet sesuai ARM dan MIPS R3000 MiniMIPS kompatibel. Alih daripada benar-benar mengeluarkan sinyal clock, beberapa desain CPU memungkinkan bagian-bagian tertentu dari perangkat yang akan asynchronous, seperti menggunakan asynchronous ALUs bersama dengan superscalar pipelining untuk mencapai keuntungan aritmatika kinerja dari beberapa. Meskipun sama sekali tidak jelas apakah desain benar-benar asynchronous dapat melakukan pada tingkat yang setara atau lebih baik daripada rekan mereka sinkron, jelas bahwa mereka lakukan minimal unggul dalam operasi matematika sederhana. Hal ini, dikombinasikan dengan konsumsi daya yang bagus serta sifat pembuangan panas, membuat mereka sangat cocok untuk komputer tertanam. (3) Pararelisme Gambaran operasi dasar dari CPU yang ditawarkan pada bagian sebelumnya menjelaskan bentuk yang paling sederhana yang dapat mengambil CPU. Jenis CPU, biasanya disebut

16

sebagai subscalar, beroperasi pada dan menjalankan satu instruksi pada satu atau dua potong data pada suatu waktu. Proses ini menimbulkan sebuah inefisiensi melekat dalam CPU subscalar. Karena hanya satu instruksi dijalankan pada satu waktu, seluruh CPU harus menunggu instruksi bahwa untuk menyelesaikan sebelum melanjutkan ke instruksi berikutnya. Sebagai hasilnya, CPU subscalar mendapat "menutup telepon" pada instruksi yang mengambil lebih dari satu siklus clock untuk menyelesaikan eksekusi. Bahkan menambahkan unit eksekusi kedua (lihat di bawah) tidak meningkatkan kinerja banyak, bukan dari satu jalur yang menutup telepon, sekarang dua jalur digantung dan jumlah transistor yang tidak digunakan meningkat. Desain ini, dimana sumber daya eksekusi CPU dapat beroperasi hanya pada satu instruksi pada satu waktu, hanya dapat mungkin mencapai kinerja scalar (satu instruksi per jam). Namun, kinerja yang hampir selalu subscalar (kurang dari satu instruksi per siklus). Upaya untuk mencapai kinerja yang skalar dan lebih baik telah menghasilkan berbagai metodologi desain yang menyebabkan CPU untuk berperilaku kurang linear dan lebih secara paralel. Ketika mengacu pada paralelisme dalam CPU, dua istilah yang umumnya digunakan untuk mengklasifikasikan teknik-teknik desain. Instruksi tingkat paralelisme (ILP) berusaha untuk meningkatkan tingkat di mana instruksi dieksekusi dalam CPU (yaitu, untuk meningkatkan pemanfaatan sumber daya eksekusi pada-die), dan benang tingkat paralelisme (TLP) bertujuan untuk meningkatkan jumlah benang ( efektif program individu) yang CPU dapat mengeksekusi secara bersamaan. Setiap metodologi berbeda baik dalam cara-cara di mana mereka diterapkan, serta efektivitas relatif mereka mampu meningkatkan kinerja CPU untuk sebuah aplikasi. F. Performance atau Speed Kinerja atau kecepatan prosesor tergantung pada misalnya laju jam dan instruksi per jam (IPC), yang secara bersama faktor-faktor untuk instruksi per detik (IPS) yang CPU dapat melakukan. Banyak dilaporkan IPS nilai telah mewakili "puncak" tingkat eksekusi pada urutan instruksi buatan dengan beberapa cabang, sedangkan beban kerja yang realistis terdiri dari campuran instruksi dan aplikasi, beberapa di antaranya memakan waktu lebih lama untuk melaksanakan dari yang lain. Kinerja hirarki memori juga sangat mempengaruhi kinerja prosesor, masalah nyaris tidak dipertimbangkan dalam perhitungan MIPS. Karena masalah ini, berbagai standar tes seperti SPECint telah dikembangkan untuk mencoba mengukur kinerja efektif nyata dalam aplikasi yang biasa digunakan. Pengolahan kinerja komputer ditingkatkan dengan menggunakan prosesor multi-core, yang pada dasarnya adalah memasang dua atau lebih prosesor individu (core disebut dalam pengertian ini) ke dalam satu sirkuit terpadu. Idealnya, sebuah prosesor dual core akan hampir dua kali lebih kuat sebagai prosesor single core. Dalam prakteknya, bagaimanapun, laba kinerja jauh lebih sedikit, hanya sekitar lima puluh persen, karena, misalnya sempurna perangkat lunak algoritma dan implementasi.

17

STORAGE
Komputer penyimpanan data, sering disebut storage atau penyimpanan atau memori, merujuk kepada komponen komputer dan media perekaman yang mempertahankan data digital yang digunakan untuk komputasi untuk beberapa interval waktu. penyimpanan data komputer menyediakan salah satu fungsi inti dari komputer modern, yang retensi informasi. Ini adalah salah satu komponen fundamental dari semua komputer modern, dan ditambah dengan satu unit pengolah pusat (CPU, prosesor), mengimplementasikan model komputer dasar yang digunakan sejak tahun 1940-an. Dalam penggunaan kontemporer, memori biasanya mengacu pada bentuk penyimpanan semikonduktor yang dikenal sebagai random-access memory, biasanya DRAM (Dynamic-RAM) tetapi banyak kali bentuk lain dari cepat tetapi penyimpanan sementara. Demikian pula, hari ini penyimpanan lebih sering merujuk ke perangkat penyimpanan dan media mereka tidak langsung dapat diakses oleh CPU (penyimpanan sekunder atau tersier) -. Biasanya hard disk drive, drive cakram optik, dan perangkat lain yang lebih lambat dari RAM tetapi lebih permanen. Secara historis, memori yang disebut memori utama, penyimpanan nyata atau memori internal, serta perangkat penyimpanan telah disebut penyimpanan sekunder, memori eksternal atau penunjang / penyimpanan perifer). Perbedaan kontemporer sangat membantu, karena mereka juga penting untuk arsitektur komputer secara umum. Perbedaan juga mencerminkan perbedaan teknis penting dan signifikan antara perangkat penyimpanan memori dan massa, yang telah dikaburkan oleh penggunaan historis dari penyimpanan jangka. Banyak berbagai bentuk penyimpanan, berdasarkan berbagai fenomena alam, telah diciptakan. Sejauh ini, tidak ada media penyimpanan praktis universal ada, dan semua bentuk penyimpanan memiliki beberapa kelemahan. Oleh karena itu sistem komputer biasanya mengandung beberapa jenis penyimpanan, masing-masing dengan tujuan individu. Sebuah komputer digital merupakan data menggunakan sistem angka biner. Teks, angka, gambar, audio, dan hampir semua bentuk informasi lain dapat dikonversi ke dalam string bit, atau digit biner, yang masing-masing memiliki nilai 1 atau 0. Unit penyimpanan yang paling umum adalah byte, sama dengan 8

18

bit. Sepotong informasi dapat ditangani oleh komputer manapun ruang penyimpanan yang cukup besar untuk menampung representasi biner dari bagian informasi, atau hanya data. Sebagai contoh, menggunakan delapan juta bit, atau sekitar satu megabyte, khas komputer dapat menyimpan sebuah novel pendek. Secara tradisional bagian terpenting dari setiap komputer adalah unit pengolah pusat (CPU, atau hanya prosesor), karena sebenarnya beroperasi pada data, melakukan perhitungan apapun, dan mengendalikan semua komponen lainnya. Tanpa sejumlah besar memori, komputer hanya akan mampu untuk melakukan operasi tetap dan output segera hasilnya. Itu harus ulang untuk mengubah perilakunya. Hal ini dapat diterima untuk perangkat seperti kalkulator meja atau sederhana prosesor sinyal digital. Von Neumann mesin berbeda dalam bahwa mereka memiliki memori di mana mereka menyimpan operasi mereka instruksi dan data. komputer tersebut lebih fleksibel dalam bahwa mereka tidak perlu memiliki perangkat keras mereka ulang untuk setiap program baru, tapi hanya dapat memprogram dengan instruksi di memori baru, mereka juga cenderung lebih sederhana untuk merancang, dalam prosesor yang relatif sederhana dapat menyimpan negara antara perhitungan yang berurutan untuk membangun hasil prosedural yang kompleks. Sebagian besar komputer modern von Neumann mesin. Dalam prakteknya, hampir semua komputer menggunakan berbagai jenis memori, terorganisir dalam sebuah hirarki penyimpanan di sekitar CPU, sebagai trade-off antara kinerja dan biaya. Umumnya, semakin rendah penyimpanan adalah dalam hirarki, yang lebih kecil bandwidth dan latency semakin besar akses adalah dari CPU. Pembagian tradisional penyimpanan untuk penyimpanan primer, sekunder, tersier dan off-line juga dipandu oleh biaya per bit.

19

BUS
Dalam arsitektur komputer, sebuah bus adalah sebuah subsistem yang mentransfer data antara komponen komputer di dalam komputer atau antar komputer. Awal bus komputer secara harfiah bus listrik paralel dengan beberapa sambungan, tetapi istilah ini sekarang digunakan untuk pengaturan fisik yang menyediakan fungsi logis yang sama seperti bus listrik paralel. bus komputer modern dapat menggunakan kedua koneksi paralel dan bit-serial, dan dapat kabel baik di multitaruh (paralel listrik) atau topologi rantai daisy, atau dihubungkan oleh hub diaktifkan, seperti dalam kasus USB. A. Sejarah Awal bus komputer adalah kumpulan dari kawat yang memori dan peripheral. Mereka diberi nama setelah bus listrik, atau busbar. Hampir selalu, ada satu bus untuk memori, dan satu lagi untuk peripheral. Dan ini diakses oleh instruksi terpisah, dengan timing yang sama sekali berbeda dan protokol. Salah satu komplikasi pertama adalah penggunaan interrupt. Awal program komputer yang dilakukan I / O dengan menunggu dalam satu lingkaran untuk perangkat menjadi siap. Ini adalah buang-buang waktu untuk program yang memiliki tugas lain untuk melakukannya. Juga, jika program tersebut berusaha untuk melakukan tugas-tugas lain, mungkin memakan waktu terlalu lama untuk program untuk memeriksa kembali, yang mengakibatkan hilangnya data. Insinyur sehingga mengatur agar perangkat untuk menginterupsi CPU. The interupsi harus diprioritaskan, karena CPU hanya dapat mengeksekusi kode untuk satu perangkat sekaligus, dan beberapa perangkat lebih waktu-kritis daripada yang lain. Kemudian program komputer mulai berbagi memori umum untuk beberapa CPU. Akses ke memori bus ini harus diprioritaskan, juga. Cara, klasik sederhana untuk memprioritaskan interupsi atau mengakses bus dengan rantai daisy. Desember mencatat bahwa memiliki dua bus tampak boros dan mahal untuk minicomputer diproduksi secara massal, dan dipetakan peripheral ke bus memori, sehingga perangkat tampaknya lokasi memori. awal sistem bus mikro pada dasarnya backplane pasif terhubung langsung atau melalui amplifier buffer pin dari CPU. Memori dan perangkat lainnya akan ditambahkan ke bus menggunakan alamat yang sama dan pin data sebagai CPU itu sendiri yang digunakan, dihubungkan secara paralel. Komunikasi itu dikendalikan oleh CPU, yang telah membaca dan menulis data dari perangkat seolah-olah mereka adalah blok memori, menggunakan petunjuk yang sama, semua dihitung per jam pusat mengontrol kecepatan CPU. Namun, perangkat sela CPU oleh sinyal pada pin CPU terpisah. Misalnya, controller disk drive akan sinyal CPU bahwa data baru siap untuk dibaca, di mana titik CPU akan memindahkan data-data dengan membaca "lokasi memori" yang

20

berhubungan ke disk drive. Hampir semua mikrokomputer awal dibangun dengan cara ini, dimulai dengan bus-100 S di Altair. Dalam beberapa kasus, terutama di PC IBM, meskipun arsitektur fisik yang sama digunakan, instruksi untuk mengakses peripheral (dalam dan keluar) dan memori (mov dan lain-lain) belum dibuat seragam sama sekali, dan masih menghasilkan sinyal CPU yang berbeda, yang dapat digunakan untuk mengimplementasikan saya memisahkan / O bus. Sistem ini sederhana bus memiliki kelemahan serius ketika digunakan untuk komputer tujuan umum. Semua peralatan pada bus harus bicara pada kecepatan yang sama, seperti saham sebuah jam tunggal. Meningkatkan kecepatan CPU menjadi lebih keras, karena kecepatan semua perangkat harus meningkat juga. Bila tidak praktis atau ekonomis untuk memiliki semua perangkat secepat CPU, CPU baik harus memasukkan keadaan menunggu, atau bekerja pada frekuensi clock yang lebih lambat sementara, untuk berbicara dengan perangkat lain di komputer. Sementara dapat diterima di embedded system, masalah ini tidak ditoleransi lama di tujuan umum, komputer pengguna-diupgrade. Sistem bus tersebut juga sulit untuk mengkonfigurasi ketika dibangun dari peralatan off-rakumum. Biasanya setiap kartu ekspansi ditambahkan membutuhkan banyak jumper untuk mengatur alamat memori, I / O nomor alamat, prioritas interupsi, dan mengganggu. Sebuah bus controller menerima data dari sisi CPU akan dipindahkan ke sisi peripheral, sehingga menggeser beban protokol komunikasi dari CPU itu sendiri. Hal ini memungkinkan sisi CPU dan memori untuk berkembang secara terpisah dari perangkat bus, atau hanya "bus". Perangkat pada bus bisa berbicara satu sama lain tanpa intervensi CPU. Hal ini menyebabkan jauh lebih baik kinerja "dunia nyata", tetapi juga diperlukan kartu yang akan jauh lebih kompleks. Bis ini juga sering dibahas masalah kecepatan dengan menjadi "lebih besar" dalam hal ukuran jalur data, bergerak dari bus paralel 8-bit pada generasi pertama, untuk 16 atau 32-bit kedua, serta menambahkan setup perangkat lunak (sekarang standar seperti bermain Plug--n) untuk menggantikan atau mengganti jumper. Namun sistem ini baru berbagi satu kualitas dengan sepupu mereka sebelumnya, di setiap orang di bus itu harus bicara pada kecepatan yang sama. Sementara CPU sekarang terisolasi dan dapat meningkatkan kecepatan tanpa rasa takut, CPU dan memori terus meningkat dalam kecepatan jauh lebih cepat daripada bus mereka berbicara dengan. Hasilnya adalah bahwa kecepatan bus sekarang sangat jauh lebih lambat daripada apa sistem modern yang diperlukan, dan mesinmesin dibiarkan kelaparan untuk data. Sebuah contoh yang umum dari masalah ini adalah bahwa kartu video dengan cepat outran bahkan lebih baru seperti sistem bus PCI, dan komputer mulai memasukkan AGP hanya untuk drive kartu video. Dengan 2004 AGP kekecilan lagi dengan kartu video high-end dan peripheral lain dan telah digantikan oleh bus PCI Express baru. Peningkatan jumlah perangkat eksternal mulai menggunakan sistem mereka sendiri bus juga. Ketika disk drive pertama kali diperkenalkan, mereka akan ditambahkan ke mesin dengan kartu dicolokkan ke dalam bus, itulah sebabnya mengapa komputer memiliki slot begitu banyak di bus. Namun melalui tahun 1980-an dan 1990-an, sistem baru seperti SCSI dan IDE diperkenalkan untuk melayani kebutuhan ini, meninggalkan slot yang paling dalam sistem modern kosong. Hari

21

ini ada kemungkinan akan sekitar lima bus yang berbeda dalam mesin khas, mendukung berbagai perangkat. Generasi Ketiga "Generasi ketiga" bus telah muncul ke pasar sejak sekitar tahun 2001, termasuk HyperTransport dan InfiniBand. Mereka juga cenderung sangat fleksibel dalam hal koneksi fisik mereka, yang memungkinkan mereka untuk digunakan baik sebagai bus internal, serta menghubungkan mesin yang berbeda bersama-sama. Hal ini dapat menyebabkan masalah kompleks ketika mencoba untuk layanan permintaan yang berbeda, begitu banyak karya keprihatinan atas perancangan perangkat lunak sistem, sebagai lawan dari hardware itu sendiri. Secara umum, bis ini generasi ketiga cenderung tampak seperti sebuah jaringan daripada konsep asli bus, dengan overhead protokol yang lebih tinggi diperlukan dari sistem awal, sementara juga memungkinkan beberapa perangkat untuk menggunakan bus sekaligus. Wishbone bus seperti telah dikembangkan oleh gerakan perangkat keras open source dalam upaya untuk lebih menghilangkan kendala-kendala hukum dan hak paten dari desain komputer. B. Deskripsi dari Bus Pada suatu waktu, "bus" berarti sistem elektrik paralel, dengan konduktor listrik serupa atau identik dengan pin pada CPU. Ini tidak lagi terjadi, dan sistem modern mengaburkan garis antara bus dan jaringan. Bus dapat bus paralel, yang membawa kata-kata data secara paralel pada beberapa kabel, atau bus serial, yang membawa data dalam bentuk bit-serial. Penambahan tenaga ekstra dan mengontrol koneksi, driver diferensial, dan koneksi data di setiap arah biasanya berarti bahwa sebagian besar bus serial memiliki konduktor lebih dari minimum yang digunakan dalam 1-Wire dan / UNI O bus serial. Sebagai data kenaikan tarif, masalah miring waktu, konsumsi daya, gangguan elektromagnetik dan crosstalk di bus paralel menjadi lebih dan lebih sulit untuk menghindari. Salah satu solusi parsial untuk masalah ini telah dua kali lipat pompa bus. Seringkali, sebuah serial bus sebenarnya dapat dioperasikan pada kecepatan data yang lebih tinggi secara keseluruhan dari bus paralel, walaupun memiliki sambungan listrik lebih sedikit, karena serial bus inheren tidak memiliki waktu miring atau crosstalk. USB, FireWire, dan Serial ATA adalah contoh ini. multitaruh koneksi tidak bekerja dengan baik untuk bus serial cepat, bus serial sehingga sebagian besar modern menggunakan daisy-chain atau desain hub. Sebagian besar komputer memiliki keduanya bus internal dan eksternal. Sebuah bus internal menghubungkan semua komponen internal komputer untuk motherboard (dan dengan demikian, memori CPU dan internal). Jenis bus juga disebut sebagai bus lokal, karena mereka dimaksudkan untuk terhubung ke perangkat lokal, bukan untuk orang dalam mesin lain atau eksternal ke komputer. Sebuah bus eksternal menghubungkan peripheral eksternal pada motherboard. Koneksi jaringan seperti Ethernet umumnya tidak dianggap sebagai bus, walaupun perbedaan itu adalah sebagian besar konseptual daripada praktis. Kedatangan teknologi seperti InfiniBand dan HyperTransport lebih lanjut mengaburkan batas antara jaringan dan bus. Bahkan garis antara internal dan eksternal kadang-kadang fuzzy, saya C dapat digunakan baik sebagai bus internal, atau bus eksternal (di mana ia dikenal sebagai ACCESS.bus), dan InfiniBand dimaksudkan untuk menggantikan kedua bus internal seperti PCI serta eksternal yang seperti

22

Fibre Channel. Dalam aplikasi desktop khas, USB berfungsi sebagai bus peripheral, tetapi juga melihat beberapa digunakan sebagai utilitas jaringan dan untuk konektivitas antara komputer yang berbeda, lagi mengaburkan perbedaan konseptual. C. Bus Topologi Dalam sebuah jaringan, master scheduler mengontrol lalu lintas data. Jika data yang akan dipindahkan, komputer meminta mengirimkan pesan ke scheduler, yang menempatkan permintaan ke antrian. Pesan berisi kode identifikasi yang disiarkan ke semua node jaringan. scheduler bekerja keluar prioritas dan memberitahu penerima secepat bus tersedia. Simpul diidentifikasi mengambil pesan dan melakukan transfer data antara dua komputer. Setelah menyelesaikan transfer data bus menjadi bebas untuk permintaan berikutnya dalam antrian scheduler itu. * Keuntungan: Setiap komputer dapat diakses secara langsung dan pesan dapat dikirim dalam suatu cara yang relatif sederhana dan cepat. * Kerugian: scheduler A diperlukan untuk mengatur lalu lintas dengan menetapkan frekuensi dan prioritas untuk setiap sinyal.

23

Anda mungkin juga menyukai