Anda di halaman 1dari 8

Hukum Moore

Hukum Moore - Menunda selamanya? "Yang penting adalah bahwa Hukum Moore adalah eksponensial, dan tidak ada eksponensial adalah selamanya ... Tapi kita dapat menunda selamanya '- Gordon Moore Gordon Moore sangat berpengaruh 'hukum' tentang laju perkembangan di bidang teknik sirkuit terpadu kini tetap berlaku selama hampir empat dekade. Dalam pernyataan aslinya, Moore diamati pada tahun 1965 bahwa jumlah transistor yang bisa mendapat di Chip dua kali lipat setiap 18 bulan. Karena kepadatan fitur pada sirkuit terpadu menentukan semua utama parameter, termasuk konsumsi daya dan kecepatan maksimum clock ini dipandang sebagai ukuran umum kemajuan dalam teknologi semikonduktor. Hukum Moore telah ditahan selama 38 tahun, tetapi baru-baru kehancurannya telah semakin diprediksi. Pada beberapa titik selama 20 tahun terakhir komentator telah memperingatkan bahwa kita berada di ambang 'terakhir beberapa doubling' dan melihat telah menyatakan bahwa tak lama mereka yang menulis perangkat lunak sekarang akan harus mengambil kinerja lebih serius Hukum Moore telah menjadi lebih dari pengamatan sejarah, dan lebih dari prediksi belaka. Hari ini mengambil peran tidak hanya pengamatan dan prediksi, tetapi juga dari target untuk industri dan kusa. Ini telah menjadi seperti cause celebre yang bekerja sebagai mekanisme umpan balik dan bertindak untuk memenuhi nubuatan sendiri. Hukum Moore pertama kali diusulkan pada awal era semikonduktor terintegrasi tetapi sesuatu seperti itu tampaknya benar bahkan selama seluruh sejarah komputasi elektronik. Dipengaruhi oleh keluarga tertentu koneksi saya telah mengambil contoh dari EDSAC1 Cambridge sebagai komputasi praktis pertama yang nyata mesin - yaitu, mesin dengan pengguna yang sebenarnya. EDSAC berlari pada sebuah megacycle setengah. Jika kecepatan yang dua kali lipat hampir setiap dua tahun sejak EDSAC pertama kali operasional pada tahun 1949 kita akan mencapai tentang kecepatan PC modern saat ini. Meskipun faktor-faktor yang akan saya berpendapat membantu menentukan kecepatan perkembangan komputer telah ada dalam beberapa bentuk sejak awal, Hukum Moore biasanya diambil sebagai berlaku untuk era semikonduktor, dan yang paling baru dan konsisten untuk CMOS (Complementary Metal Oxide Semiconductor-). Ini teknologi telah bersama kami selama 25 tahun dan belum berjalan saja, meskipun banyak berharap untuk melakukannya dalam

satu atau dua dekade. Industri faktor Dibandingkan dengan industri teknologi lainnya, industri semikonduktor tidak memiliki tujuan yang bersaing. Pada sebagian besar bidang teknik sejumlah faktor mengatur sifat produk. Faktor-faktor ini dicampur dalam berbeda proporsi untuk menghasilkan produk akhir yang cocok untuk berbagai aplikasi. Sebuah mobil mungkin kecil atau besar, tinggi bertenaga atau ekonomis, mewah atau utilitarian. Masing-masing faktor: ukuran, kekuatan, kenyamanan, memerlukan biaya, dan satu diperdagangkan-off melawan yang lain untuk memenuhi tujuan tertentu. Meskipun rekayasa semikonduktor tidak seluruhnya tanpa pengorbanan tersebut, mereka memainkan bagian yang relatif kecil . Dalam chip prosesor semua penting parameter: kecepatan, kekuatan, ukuran dan biaya per transistor pergi bersama-sama. Salah satunya adalah tidak pernah dengan mengorbankan orang lain. Sebuah contoh yang baik dari tradeoff dalam chip kekuatan khusus rendah yang digunakan dalam pembuatan notebook. Berikut ada asli meskipun tradeoff temporer antara konsumsi daya dan kecepatan. Seseorang tidak dapat memiliki prosesor lebih lambat dengan biaya lebih rendah, kecuali di tepi mana teknologi lebih lambat tidak belum memberikan cara untuk satu, berikutnya lebih cepat lebih murah. Parameter ini mendefinisikan mendidih ke faktor tunggal, yaitu ukuran komponen individu dan kepadatan yang mereka dapat disimpan ke sebuah chip. Dari awal sirkuit terpadu di tahun 1960 ini masalah teknologi tunggal telah mendominasi semua lain. Biaya pengembangan dan perkakas setiap teknologi mengurangi ukuran baru berjalan ke miliaran dolar. Para viabilitas dari proses fabrikasi diatur oleh hasil, proporsi chip yang dibuat tanpa kekurangan 2 , Dan ini berarti bahwa setiap proses baru harus diuji dalam kondisi produksi dekat sebelum kelangsungan hidup dapat diketahui dengan pasti. Pengurangan konstan ukuran fitur drive pasar yang sebagian besar pasar yang upgrade. Komersial Model tergantung pada produsen meningkatkan produk mereka sehingga radikal setiap beberapa tahun bahwa pelanggan benar-benar akan mengganti proporsi peralatan mereka. Siklus ini membentuk proses, stabil terus, sehingga Selama kemajuan teknologi yang cukup untuk menghasilkan pendapatan upgrade yang akan mendanai putaran berikutnya pembangunan. Sifat industri karena kekuatan tingkat minimum tertentu pada pengembangan. Jika Proses berjalan terlalu lambat kegiatan akan datang dalam semburan dan tingkat kapitalisasi yang diperlukan tidak dapat dipertahankan. Pada saat yang sama tekanan konservatif bertindak untuk membatasi tingkat ini yang hanya akan bahan bakar siklus upgrade. Untuk perusahaan seperti Intel, keseimbangan harus dicapai antara keunggulan kompetitif dan

meminimalkan risiko. Mereka harus tetap sedikit di depan dari pesaing mereka setidaknya di beberapa daerah, tapi tidak begitu banyak untuk resiko karena over target ambisius rekayasa mahal kegagalan. Dalam melakukan sehingga perencana harus menilai dengan baik berapa banyak kemajuan teknis aman dapat dibuat dalam siklus, meskipun masing-masing babak baru membawa tantangan yang berbeda, sering melibatkan penelitian cukup mendasar. Dalam membuat penilaian mereka secara alami akan dipengaruhi oleh pengalaman, dan Hukum Moore akan pasti dapat digunakan sebagai tolak ukur tersebut. Tidak ada yang akan dipecat untuk menetapkan hambatan dalam Hukum Moore langkah berukuran dan ke mana Hukum Moore akan cenderung untuk mempertahankan kebenarannya sendiri. Perjalanan dua dekade berikutnya akan ditentukan terutama oleh masalah teknologi pembuatan chip yang lebih kecil. Batas teoritis mendasar pada kecepatan komputasi akan suatu hari memaksakan batasan. Tapi bukan pada teknologi saat ini. Sifat dari batas-batas ini pada komputasi tidak dipahami dengan baik. Para kemungkinan dibatasi setidaknya dengan kecepatan propagasi sinyal, dan mungkin akhirnya oleh pertimbangan granularity ruang dan waktu. Kecepatan cahaya adalah batas terdekat serta yang paling nyata. Cahaya bergerak sekitar kaki di nanodetik. Untuk Itanium 4GHz berjalan pada jalan yang rantai sinyal dapat mengambil di dalam chip dan antara siklus jam berturut-turut tidak dapat melebihi beberapa inci. Ini mungkin menempatkan kami dalam urutan besarnya atau dua dari apa yang dapat dicapai dengan semikonduktor tradisional arsitektur, meskipun masih jauh jika kita membiarkan kemungkinan gerbang ukuran atom. Untuk berspekulasi liar, switch terdiri dari fitur lebih dekat ke papan panjang akan memberikan ruang kepala lebih besar. Faktor lain yang kadang-kadang disebut sebagai yang mungkin membatasi kecepatan perhitungan klasik adalah minimal disipasi energi. Penerapan 2 nd Hukum Termodinamika menunjukkan bahwa dalam batas, tindakan gating sendiri, menghasilkan panas disebabkan oleh hilangnya informasi Namun energi yang dibutuhkan untuk Lebih tepatnya hasil merujuk pada proporsi chip pada atau di atas suatu kualitas tertentu. Wafer baru yang diproduksi adalah diuji untuk memastikan kecepatan terbesar di mana mereka akan berjalan andal. Mereka kemudian diurutkan ke berbagai nilai produk. Ia telah mengemukakan bahwa kesulitan ini bisa dielakkan dengan penggunaan informasi sepenuhnya reversibel dan karenanya melestarikan gerbang. setiap drive beralih dibayangkan akan cenderung menjadi lebih signifikan. Teknologi ini adalah jauh dari pertimbangan tersebut. CMOS CMOS sekarang teknologi fabrikasi tunggal yang telah turun kepada kita. Beberapa dekade lalu ada adalah beberapa alternatif. Pada saat itu Anda bisa membayar lebih sedikit dan memiliki chip lebih

cepat ECL logika, dan teknologi bipolar dilihat oleh banyak orang sebagai jalan ke depan. Tapi di tahun 80-an dan 90-an semua pesaing lain drop out dengan CMOS dikukus depan.Keuntungan utama dari CMOS lebih dari NMOS dan teknologi bipolar adalah disipasi daya jauh lebih kecil. Tidak seperti sirkuit NMOS atau bipolar, CMOS gerbang hampir tidak memiliki disipasi daya statis. Daya hanya hilang sementara rangkaian sebenarnya switching. akta bahwa CMOS adalah teknologi yang layak hanya pada kecepatan clock hari ini menempatkan industri di genting posisi. Jika CMOS adalah untuk memukul buffer tidak akan ada yang bisa masuk dan mengambil alih. Yang paling berbicara tentang alternatif, komputasi kuantum optik dan tidak pesaing serius. Quantum prosesor yang tetap sangat spekulatif efektif mengatasi masalah yang berbeda, dan komputer optik tidak cari menjanjikan. Ada beberapa alasan mengapa demikian. Pertama, panjang gelombang elektron sangat jauh lebih pendek dari itu cahaya. Ini berarti bahwa gangguan efek dengan frekuensi switching akan terjadi cepat dalam optik komputer daripada satu elektronik. Sebuah faktor yang lebih penting adalah bahwa elektron ketika berinteraksi dengan mudah dengan materi, foton tidak dan sulit untuk mendapatkan efek yang mungkin berguna untuk gating dalam jarak yang sebandingdengan mereka secara rutin digunakan dalam sirkuit elektronik - jarak yang semakin kecil sepanjang waktu. Hal ini umumnya diterima bahwa setiap komputer optik dibayangkan akan putus asa lambat. Fakta bahwa tidak ada teknologi baru yang siap pula dekat langkah harus CMOS kehabisan uap berarti bahwa doubling terus bergantung pada satu baris, dan semakin rapuh teknik penelitian, dan satu yang akan lebih sulit setiap tahun. Kepadatan pengepakan yang menentukan parameter kinerja yang penting dinyatakan dalam hal fitur ukuran, suatu pengukuran yang berkaitan dengan ukuran transistor silikon dan komponen lainnya. Pada awal 80-an ini adalah sekitar 5 mikron. Hari ini mendekati 0,09 (90nm). Sebagai fitur menjadi lebih kecil sejumlah isu menjadi lebih mendesak: Setiap transistor menghasilkan panas seperti switch. Dengan transistor dikemas lebih dan lebih padat panas menjadi sulit untuk mengusir. Mengurangi tegangan akan membantu, dan ini telah dilakukan beberapa kali dalam beberapa tahun terakhir. Namun prosesor tercepat akan segera mengkonsumsi 1000 Watts dan ini tidak bisa berlangsung selamanya. Isolasi menyajikan masalah lain. Sebagai lapisan menjadi lebih tipis isolasi mereka mulai bocor elektron. Pada akhirnya, dan agak lebih hilir, akan ada batas bawah pada jumlah elektron yang dapat merupakan transisi beralih handal. Dalam hal produksi, pada batas-batas CMOS miniaturisasi dua efek yang mungkin. Pertama biaya pabrik fabrikasi yang diperlukan untuk membuat semikonduktor akan menjadi begitu besar untuk melebihi yang tersedia kapitalisasi, membuat kemajuan lebih lanjut unviable. Kedua, sebagai kemajuan baru menjadi lebih sulit generasi chip mungkin mulai tampak kurang sering atau dengan penambahan kinerja lebih kecil. Tentu saja tidak semua peningkatan kapasitas komputasi datang dari jam lebih cepat. Chip desainer selalu mencari cara meningkatkan kinerja prosesor tanpa meningkatkan clock rate. Besar on-chip instruksi dan data cache yang kini mendominasi real throughput yang meningkat chip yang sebenarnya hingga urutan besarnya untuk banyak beban kerja, dan penggunaan pipa telah meningkatkan kinerja lebih jauh. Dalam generasi terbaru chip pipelining dengan prediksi cabang, predikasi dan kode dan spekulasi data yang mengambil proses ini lebih lanjut. Semakin canggih yang berarti caching prosesor sekarang menjalankan sebagian besar keluar dari pada- chip memori. Hyperthreading, di mana beberapa logical prosesor dalam chip mengeksekusi thread terpisah di cara yang analog dengan multiprocessing simetris, memungkinkan prosesor untuk mengeksploitasi lebih banyak dan lebih dari Program melekat (atau paling tidak eksplisit) paralelisme. Untuk kinerja akan terus meningkat pada saat ini menilai, kontribusi teknik tersebut untuk kinerja keseluruhan progresif harus meningkat, dan berburu adalah on untuk inovasi lebih lanjut yang akan membuat lebih baik menggunakan siklus tersedia serta mereka yang akan memberikan lebih dari mereka. Proses CMOS kini telah membawa kita lebih jauh dari siapa pun akan menduga dan secara berkala, komentator titik untuk masalah ini atau

itu menjulang sebagai blok yang akan membuktikan akhir CMOS. Selama 90-an banyak yang berpikir bahwa kemajuan akan dihentikan oleh kesulitan benar-benar membangun semakin mesin kecil. Tapi ini terbukti tidak ada masalah bagi perusahaan bersedia menghabiskan jutaan dolar pada lensa. Kemudian, ketika kebutuhan untuk resolusi mendekati panjang gelombang cahaya menjadi masalah serius mereka peningkatan frekuensi, menggunakan litografi UV pada panjang gelombang ekstrim di bawah 200nm . Hari ini stopper menunjukkan adalah isolasi. Sebagai lapisan isolasi antara konduktor menjadi lebih tipis elektron mulai bocor - sebuah fenomena yang dikenal sebagai tunneling. Ukuran atom silikon agak kurang dari angstrom. Dalam beberapa tahun lapisan isolasi dari silikon dioksida akan mencapai 15 atau lebih angstrom - saat ini dianggap sebagai batas. Siapa yang tahu bagaimana mereka akan memecahkan ini - tetapi mereka mungkin akan. Kutipan di awal artikel ini, diambil dari alamat Gordon Moore pada tahun 2003 IEEE International Solid-State Sirkuit Konferensi mengekspresikan keadaan industri semikonduktor sempurna. Prospek maka untuk produksi chip dalam dekade berikutnya atau dua diatur oleh ekonomi semakin sulit dan mahal rekayasa. Hukum Moore memang hubungan eksponensial, tetapi untuk industri komputer komersial secara efektif kondisi mapan. Itu tergantung pada kondisi mapan baru dan upgrade pendapatan terus membayar untuk yang baru, tanaman fabrikasi yang lebih besar dan untuk penelitian. Biaya meningkat setiap generasi dan sejauh ini, begitu juga pendapatan. Tapi kedua sisi persamaan beresiko. Akhirnya pasar jenuh atau beberapa efek lain dapat mulai mengikis pertumbuhan pendapatan. Atau biaya modal dari teknologi baru bisa melebihi apa yang bahkan industri yang sehat dapat menanggung. Jika CMOS harus mencapai batasnya dan industri itu untuk kembali menyelaraskan diri berhasil sekitar bergerak lebih lambat teknologi, biaya semikonduktor pada akhirnya akan turun. Karena tekanan kompetitif utama akan kemudian harga dan miliaran sekarang akan menjadi tanaman fabrikasi baru akan diselamatkan, semikonduktor bisa menjadi sangat murah memang. Pada salah satu perangkat lunak waktu itu diberikan dengan hardware jauh lebih mahal. Di masa depan sebaliknya bisa terjadi. Hal ini tidak mungkin untuk membayangkan saat layar dan komputer yang terpasang sedikit biaya lebih dari selembar kertas berkualitas baik. Perangkat Lunak Apa yang kemudian akan kemungkinan konsekuensi untuk perangkat lunak? Permintaan di pasar yang telah memicu pengembangan prosesor untuk aplikasi semakin fungsional. Kecepatan biasanya tidak tujuan itu sendiri. Para daya yang digunakan untuk memberikan fitur baru dan bahan bakar sehingga pasar upgrade. spektrum yang terlihat terletak antara 400 dan 700nm. Ini adalah wajar untuk menganggap bahwa ketika hardware berhenti mendapatkan jauh lebih cepat akan ada tekanan pada kinerja perangkat lunak. Selalu ada beberapa daerah dimana peningkatan dan perubahan permintaan bahkan tanpa perbaikan apapun dalam fungsionalitas yang dirasakan menuntut kecepatan lebih besar. Sebuah contoh hari ini adalah keamanan internet. Dengan lebih stres pada keamanan Internet semakin dimediasi oleh sistem keamanan yang kompleks operasi secara real waktu. Tidak hanya melakukan hal-siklus makan lagi, mereka harus melayani lebih banyak pengguna. Hal yang sama berlaku untuk banyak didistribusikan layanan. Jika perangkat keras tidak bisa mendapatkan lebih cepat perangkat lunak akan harus mendapatkan lebih efisien. Aplikasi meng-upgrade perangkat lunak pasar selalu bergantung pada kecepatan yang lebih besar. Vendor harus pak di lebih fungsionalitas untuk membenarkan upgrade, dan ini siklus biaya. Sejauh industri dapat terus sepanjang garis siklus ini akan hadir di masa depan harus ditemukan melalui perangkat lunak yang lebih efisien. Terus-menerus memperbaiki hardware telah meninggalkan sejumlah kekurangan dalam sistem perangkat lunak. ISV cenderung berkonsentrasi pada fitur baru. Inefisiensi ditoleransi pada saat

pembangunan dan kemudian lupa tentang karena mereka dipersiapkan oleh hardware yang lebih cepat. Ketika pertumbuhan hardware datar ini inefisiensi sekali akan lagi menjadi terlihat. Sampai sejauh mana perangkat lunak dapat memenuhi kebutuhan ini? Anda hanya harus melihat perbedaan kinerja antara Windows dan Linux untuk melihat bahwa untuk beberapa perangkat lunak setidaknya ada siklus yang dapat dibebaskan dengan desain yang lebih efisien. Tapi mungkin keuntungan melalui coding yang lebih baik dan desain yang terbatas dan hanya dapat terjadi sekali. Tentu saja ada cara bahwa perangkat lunak dapat dibuat untuk melakukan lebih efisien, tetapi karena biaya besar perangkat lunak mengoptimalkan pada tingkat pernyataan ini cenderung dalam bentuk perbaikan generik diterapkan pada sistem secara keseluruhan. Caching dan khususnya penggunaan paralelisme yang mungkin tidak dieksploitasi ke mana mereka bisa dan prosesor datar kecepatan mungkin akan bertindak sebagai memacu. Tapi daerah mana, jika itu bisa diperbaiki, akan ada dampak yang sama (dalam kualitas) dengan dampak mempercepat hardware, adalah dalam cara sistem yang terintegrasi dan arsitektur yang lebih luas dovetailed bersama-sama. Hal ini berlaku pada tingkat denda panggilan prosedur, penggunaan perpustakaan, tumpukan protokol dll, dan juga di tingkat berbutir lebih besar dari interface antara aplikasi, didistribusikan interface (seperti CORBA dan COM) dan protokol sendiri. Karena kompleksitas sistem umumnya dan biaya menulis perangkat lunak, ada telah banyak konsentrasi pada teknik-teknik yang membuat kompleksitas perangkat lunak dikelola. Kami telah memilih cukup cukup untuk menggunakan siklus semakin murah untuk membeli perbaikan ini. Kemajuan seperti yang formal antarmuka, aturan pelingkupan, pemrograman terstruktur, bahasa berorientasi objek dan desain, dan berbagai metodologi mempromosikan organisasi, kualitas, dan kerjasama di kalangan programmer. Namun ada kecenderungan alami untuk teknik yang memungkinkan pengembangan terstruktur dengan baik yang cepat untuk melakukannya dengan mengorbankan efisiensi run-time. Enkapsulasi, interface, bahasa modern dan mengikat-an telah merevolusi produktivitas perangkat lunak dan kualitas. Mereka telah memungkinkan individu untuk berkonsentrasi pada kecil fungsional unit tanpa perlu khawatir tentang sisa sistem. Tapi kemajuan ini sering dibuat dengan mengorbankan efisiensi. Teknik yang enkapsulasi bantuan cenderung menimbulkan kerugian akibat gesekan pada antarmuka. Hal ini umumnya benar untuk mengatakan bahwa dalam unit dikompilasi modern yang membangun alat menghasilkan kode efisien. Luas digunakan blok bangunan seperti database, di mana skala ekonomi membenarkan anggaran pembangunan yang besar, juga cenderung sangat efisien. Tetapi karena kita telah berkonsentrasi pada kecepatan pembangunan dan bukan kecepatan eksekusi, sistem perangkat lunak sekarang membayar denda dalam kinerja untuk metodologi yang membuat mereka mungkin.

Saldo tidak akan diatasi semalam, tetapi periode berlarut-larut kinerja hardware datar dapat memberikan motivasi untuk inovasi dalam cara sistem program yang melibatkan interface dinamis diwujudkan dalam kode. Ada ruang yang cukup untuk perbaikan, tetapi banyak dari itu hanya dapat diwujudkan melalui analisis sistem cara individu berperilaku dinamis pada saat run time. Harus ada beberapa cara sistem pemantauan selama penggunaan untuk mempertahankan tampilan rinci dari kode berjalan dan untuk faktor luar yang tidak perlu kompleksitas. Dalam kasus di mana eksekusi melintasi batas antara komponen yang diproduksi secara independen, interface dapat disederhanakan atau keluar diperhitungkan karena mereka mungkin telah jika komponen-komponen yang telah ditulis sebagai satu. Masalah ini tidak mudah setuju untuk analisis statis karena kebutuhan luas untuk akhir (run time) mengikat. Pendekatan ini dapat diperpanjang menjadi diri umum optimasi adaptif. Dalam pokok rincian program

perilaku akan diamati pada terbang paralel dan dioptimalkan secara statistik untuk kinerja terbaik. Ide optimasi adaptif tidak baru. Contoh sudah ada dalam perangkat lunak dan perangkat keras: Adaptif kompiler Java ada yang menggunakan run-time statistik kinerja untuk mengkompilasi ulang kode pada bagian- the-terbang ke kode asli untuk eksekusi lebih cepat. Program yang berjalan di bawah compiler tampak dapat mempercepat sebagai mereka melaksanakan. Sesuatu yang mirip terjadi dalam piplines prosesor modern yang diberi makan dengan instruksi ulang di mana aliran, dinamis tertentu diprediksi kontrol lebih disukai. Untuk memberikan satu contoh dari teknik kemungkinan masa depan, program poin cabang mungkin kembali-tertimbang untuk mencerminkan diamati mengalir. Setelah urutan instruksi telah terlihat untuk mengambil jalan tertentu lagi dan lagi, bahwa jalan dapat dioptimalkan dengan mengorbankan rute kurang sering diikuti. Hal ini tidak biasa untuk salah satu jumlah path eksekusi alternatif yang akan disukai oleh satu atau dua perintah besarnya dalam kehadiran beban kerja tertentu. Penyisihan ini tidak dapat dibangun ke dalam setiap program. Tapi mirip dengan teknik tersebut dari compiler optimiser klasik, disutradarai oleh statistik eksekusi dapat diterapkan pada waktu berjalan untuk menyesuaikan logika adaptif seperti itu dijalankan. Memang perbaikan tersebut ada pengganti untuk platform yang ganda dalam kecepatan setiap dua tahun. Tapi yang bukan posisi efektif. Dengan tidak berarti kinerja semua tergantung pada kecepatan baku silikon. Banyak kegiatan yang didominasi oleh faktor-faktor seperti I / O dan sinkronisasi, dan timeout juga berkontribusi. Para ide sinkronisasi berjalan melalui seluruh perangkat lunak dan arsitektur perangkat keras, dari ide yang clock CPU untuk komunikasi antara benang dan proses. Banyak masalah dalam sinkronisasi yang tidak setuju untuk optimasi adaptif namun ada juga yang, meskipun kesulitan mereka menyadari tidak boleh diremehkan. Hari ini motivasi untuk skema tersebut tidak kuat. Dalam praktek penggandaan hardware konvensional dipandang sebagai sumber peningkatan kinerja normal. Tapi masa depan mungkin terlihat berbeda. Selain kesempatan untuk secara aktif meningkatkan kinerja perangkat lunak, kinerja hardware lebih statis mungkin memiliki beberapa alam positif spin-off. Sangat mungkin bahwa perangkat keras harus berhenti semakin cepat untuk sementara waktu, ada juga akan menjadi jenderal mengambil slack. Tingkat perubahan dalam hardware berarti bahwa sistem ini sering pernah benar-benar dioptimalkan. Hal ini sering terlihat pada adanya kemacetan. Hari ini sistem berubah begitu cepat sehingga ketidakrataan dalam kinerja atau kapasitas dari komponen individu tidak pernah dapat ditangani. Hal ini berlaku dari database terdistribusi yang besar, karena routing di internet. Dalam banyak sistem, pemrosesan atau throughput yang terikat pada satu atau dua poin, dan hal inilah yang mendominasi kinerja mereka. Sebuah upgrade ke perangkat keras di beberapa titik dalam sistem benar-benar dapat mengubah situasi dan menempatkan kemacetan di tempat lain. Hal-hal berubah lebih cepat daripada yang dapat berasimilasi dan potensi sesungguhnya kinerja sistem tidak pernah diwujudkan. Sebuah periode konsolidasi akan, dari waktu ke waktu, cenderung untuk menempatkan hak ini. Sebuah efek positif lebih lanjut mungkin timbul dari fakta bahwa dalam konteks industri lebih lambat berubah, kode akan digunakan lebih lama. Jika upgrade lebih sedikit dan aplikasi bertahan lebih lama proses kualitas produksi yang lebih tinggi dapat dibenarkan. Apakah inovasi secara keseluruhan akan menderita adalah sulit untuk mengukur. Banyak kemajuan penting telah dipicu

oleh hardware lebih cepat. Setiap melompat dalam kekuatan pemrosesan membuat hal-hal baru mungkin dan ini membuat lapangan menarik. Grafis komputer pertama di 60s dan berbicara dan pengenalan tulisan tangan hari ini adalah baik dimungkinkan oleh baru, prosesor yang lebih cepat. Dengan inovasi kinerja hardware akan statis seperti lebih sedikit, dan selalu ada bahaya bahwa teknologi bergerak lambat akan kurang menarik bagi para inovatif. Tidak dapat dipungkiri bahwa akhir dari CMOS akan mengakibatkan perubahan dalam industri komersial umum, dan ini dapat menyebabkan ketidakstabilan. Anggaran besar sekarang akan masuk ke setiap generasi baru tanaman fabrikasi akan tidak lagi diperlukan - setidaknya untuk tujuan itu. Akan ada penurunan biaya semikonduktor sebagai pemain utama bersaing semakin pada harga. Apakah pembuat perangkat lunak akan menguntungkan tidak pasti. Untuk waktu akan ada kinerja nyata dan manfaat kualitas yang bisa diperoleh. Setelah itu kita bisa melihat meningkatnya komoditisasi komputasi dan ini bisa membuat lebih sulit untuk pertumbuhan untuk mengambil lagi harus sebuah teknologi baru menjadi tersedia. Tidak mungkin untuk mengatakan kapan atau bahkan apakah kekuatan pemrosesan akan mulai tingkat off. Kebanyakan orang berpikir bahwa hal itu akan suatu tempat dalam 10 atau 15 tahun mendatang. Efek pada perangkat lunak bisa sangat dramatis tetapi tentu saja tidak akan terjadi tiba-tiba dan kita akan mulai melihat tanda-tanda awal sebagai semikonduktor besar memproduksi mulai menyelaraskan bisnis mereka. Kita harus menunggu dan melihat.

Anda mungkin juga menyukai