Anda di halaman 1dari 11

JOURNAL

|||

NIM: 31170053
Nama: Vincent Lumiu
Topik: Journal International Artificial
Intellegence(PAPER No. 2)
A White Paper On The Future Of Artificial Intelligence

Abstract
Dalam buku putih ini kami membahas keadaan saat ini dari kecerdasan buatan dan
peluangnya di masa depan. Kami berpendapat bahwa menyelesaikan masalah representasi
invariant adalah kunci untuk mengatasi keterbatasan yang melekat dalam jaringan saat ini dan
untuk membuat kemajuan menuju AI yang kuat. Berdasarkan dasar pikiran ini, kami
menggambarkan strategi penelitian menuju generasi berikutnya dari algoritma pembelajaran
mesin di luar paradigm pembelajaran yang dominan saat ini. Mengikuti contoh otak biologis,
kami mengusulkan pendekatan pembelajaran tanpa pengawasan untuk memecahkan masalah
representasi invarian. Upaya penelitian interdisipliner yang terfokus di perlukan untuk
membangun teori matematika abstrak dari representasi invariant dan menerapkannya dalam
pengembangan algoritme perangkat lunak fungsional, sekaligus menerapkan dan
meningkatkan pemahaman konseptual kami tentang otak (manusia).

1. Perkenalan
Pada tahun 2012 Alex Krizhevsky, llya sutskever dan Geoffrey E. Hinton menerbitkan hasil
mereka di ImageNet LSVCR2010 kontes, tantangan visi komputer secara otomatis
mengklasifikasikan 1.2 juta gambar resolusi tinggi menjadi 1,000 kelas yang berbeda.
Penggunaan jaringan yang menghasilkan peningkatan substansial dalam tingkat kesalahan
dam menandai awal gelombang baru-baru ini dalam pembelajaran mesin dan kecerdasan
buatan. Pada tahun-tahun berikutnya, pembelajaran yang mendalam telah di terapkan pada
sejumlah besar masalah lain dan digunakan secara produktif dalam aplikasi seperti
pengenalan suara untuk asisten digital, perangkat lunak terjemahan dan kendaraan self-
driving.
Namun terlepas dari semua kisah sukses yang mengesankan ini, pembelajaran mendalam
masih dari keterbatasan yang parah. Untuk satu hal, diperlukan sejumlah data besar berlabel
untuk melatih jaringan. Dimana seorang anak manusia mungkin belajar mengenali spesies
hewan atau sekelompok objek dengan hanya melihat beberapa contoh, jaringan yang
biasanya membutuhkan puluhan ribu gambar untuk mencapai akurasi yang sama. Untuk hal
lain algoritma saat ini jelas jauh dari memahami esensi suatu entitas atau kelas dalam cara
yang dilakukan manusia. Banyak contoh menunjukkan bagaimana bahkan yang paling
modern jaringan gagal secara spektakuler dalam kasus-kasus yang tampaknya sepele bagi
manusia.
Sementara jaringan cukup modis saat ini, fondasi konseptual mereka sebenarnya agak
lama; mereka sudah dipelajari secara intensif pada tahun 1950-an dan 1960-an, diilhami oleh
anatomi otak sesuai dengan pemahaman pada waktu itu. Jaringan dalam dewasa ini pada
dasarnya sama dengan jaringan klasik kecuali untuk jumlah lapisan yang lebih tinggi. Mereka
berutang keberhasilan mereka dalam beberapa tahun terakhir sebagian besar karena
peningkatan daya komputasi dan ketersediaan sejumlah besar data pelatihan. Hipotesis
sentral kami, yang menggerakan penelitian kami, adalah bahwa keterbatasan saat ini dalam
AI hanya dapat diatasi oleh generasi baru dari algoritma. Algoritma ini akan terinspirasi oleh
ilmu saraf hari ini dan sampai batas tertentu oleh kemajuan dalam pemahaman kita tentang
otak yang belum datang. Jalur kedepan kami yang dibayangkan adalah interdisipliner di
persimpangan matematika, ilmu computer dan ilmu saraf, yang memungkinkan kami untuk
mengatasi tantangan ini dari tiga sudut berbeda:
1. Model matematika dari representasi invariant dan bagaimana mempelajarinya dengan cara
yang tidak di awasi,
2. Implementasi algoritma pembelajaran representasi tanpa pengawasan dan,
3. Inspirasi dan vadilasi algoritma kami dengan membandingkannya dengan otak biologis.
Di bagian selanjutnya, kita akan membahas kecerdasan buatan dengan focus pada kelayakan
AI kuat sebagai tujuan jangka panjang dan berbagai macam aspek pembangkitan nilai di
sepanjang jalan. Setelah itu kita akan menjelaskan peran neurosains yang dapat dimainkan
untuk menginspirasi penelitian AI. Pada bagian terakhir, kami akan membahas strategi
penelitian kami secara lebih rinci dan mengusulkan beberapa ide spesifik dan nyata tentang
dari mana harus memulai

2. Masa depan kecerdasan buatan


2.1 Definisi
Kecerdasan, meskipun konsepnya luas dan komprehensif, juga sangat sulit di pahami
satu. Dalam survey komprehensif mereka tentang definisi intelijen yang tersedia, Legg dan
Hutter mendaftar dan meninjau lebih dari 70 gagasan yang berbeda. Mengekstrasikan fitur
yang paling umum, mereka mendefinisikan kecerdasan sebagai berikut:
Kecerdasan mengukur kemampuan agen untuk mencapai tujuan di berbagai
lingkungan
Kesulitan dalam memahami apa sebenarnya kecerdasan secara langsung mengarah pada
upaya meniru itu dalam mesin. Istilah kecerdasan buatan telah ada selama beberapa decade
dan, tergantung pada kemajuan teknologi di masing-masing waktu, ia memiliki konotasi yang
sangat berbeda. Fakta bahwa departemen pemasaran perangkat lunak besar peruasahaan telah
menangkap istilah AI untuk tujuan mereka sendiri juga tidak membantu meningkatkan
kejelasan. Jika kita menerapkan definisi Legg dan Hutter dengan ketat, maka tidak ada
kecerdasan buatan yang ada saat ini. Tidak ada program computer yang ada saat ini yang
mampu mencapai tujuan dalam berbagai lingkungan yang sebanding dengan yang di mana
manusia beroperasi. Di sisi lain, algoritma dapat melakukan tugas-tugas kognitif tertentu
yang terdefinisi dengan baik – seperti bermain game computer atau mengenali ras anjing
dalam gambar – pada tingkat manusia (super). Karenanya komunitas AI membedakan antara
AI sempit dan AI kuat.

Mirip dengan definisi di atas, kita dapat mendefinisikan AI sempit sebagai


kemampuan agen untuk mencapai tujuan dalam (sangat) terbatas berbagai lingkungan.
Seringkali diasumsikan bahwa kinerja AI kecil ini akan sebaik atau lebih baik daripada
kinerja manusia. Dari mobil yang bisa mengemudi sendiri hingga kekalahan Alpha Go, Lee
Sendol, semua terobosan AI saat ini adalah contoh dari AI kecil

Ai yang kuat – Juga disebut AI Umun atau Artificial General Intelligence (AGI) –
akan menjadi sistem yang sesuai dengan definisi Legg dan Hutter di atas, yaitu ia akan
mencapai tujuan dalam berbagai lingkungan. Sekali lagi sering diasumsikan bahwa dalam
melakukan hal ini agen ini setidaknya akan sesukses sebagai manusia biasa. Secara khusus,
AI Kuat seperti itu akan lulus tes turing yang terkenal dengan memperdaya mitra percakapan
manusia dalam obrolan online (dan memperhitungkan kemajuan terbaru dalam sintesis suara
tentunya juga di telepon) untuk meyakini bahwa itu sebenarnya adalah manusia lain, daripada
mesin.

2.2 Kosenkuensi dari AI yang kuat


Gelombang AI saat ini di dorong oleh AI yang kecil dan dampaknya sudah signifikan.
Namun realisasi AI yang kuat kemungkinan akan mengarah pada perubahan paling dramatis
bagi masyarakat dan ekonomi dalam sejarah manusia. Sifat tepat dari perubahan ini tidak
dapat di ramalkan pada hari ini dan berada di luar cakupan untuk menyajikan salah satu dari
banyak perbedaan scenario yang mungkin. Pembaca dirujuk ke buku-buku berikut yang
memberikan beberapa perspektif menarik untuk pertanyaan yang menarik ini:
Brynjolfsson dan McAfee ( terutama pada kosenkuensi ekonomi jangka penjek dan
menegah), Bostrom(tentang bahaya AI kuat),
Kurzweil(dengan sebagian besar scenario jangka panjang yang sangat optimis),
Dan Tegmark(dengan pandangan yang lebih seimbang pada berbagai scenario jangka
panjang).

2.3 Kelayakan AI yang kuat


Dengan taruhannya setinggi, itu adalah pertanyaan yang sangat menarik jika AI
yang kuat secara teknis layak secara prinsip dan kapan itu bisa di realisasikan. Sekolah
pemikiran optimis seperti yang di wakili oleh orang-orang seperti Ray Kurzweil,
memprediksi kedatangan strong AI untuk tahun 2030 atau 2040, sebagian besar di dasarkan
pada ekstrapolasi daya komputasi yang tersedia sesuai dengan hukum Moore dan
membandingkannya dengan perkiraan kompleksitas komputasi otak manusia. Sebagai
keberatan serius, orang dapat menunjukan bahwa daya komputasi sendiri (yang diukur dalam
penambahan atau perkalian per detik) tidak cukup untuk mereplikasi manusia, kecerdasan
tetapi itu lebih merupakan pertanyaan memiliki algoritma yang tepat mulai hari ini,
“algoritma” berjalan di otak yang mengarah pada perilaku cerdas hanya kurang dipahami,
dan jauh lebih sulit untuk memprediksi kecepatan kemajuan di sisi algoritmik daripada
mengekstrapolasi peningkatan perangkat keras di masa depan. Namun demikian, tampaknya
telah menjadi pendapat umum bahwa Strong AI akan dimungkinkan selama abad ini [2, 27].
Untuk mendukung sudut pandang ini, kami akan memeriksa argumen khas yang diajukan
terhadap kemungkinan mengembangkan AI Kuat:
Argumen kompleksitas: "Otak manusia sangat rumit sehingga kita tidak akan pernah (atau
setidaknya tidak segera) dapat meniru atau mensimulasikannya."
Argumen komputasi: "Kami hanya tidak memiliki kekuatan komputasi yang cukup untuk
membangun AI yang kuat."
Argumen C-word: "Anda tidak dapat membangun mesin yang sadar diri, karena X," di
mana X adalah filosofis yang sewenang-wenang atau pernyataan religi.
Argumen kreativitas: "Hanya manusia yang memiliki kreativitas untuk menciptakan hal-hal
baru, melakukan penelitian, atau melakukan seni.”

2.4 Penciptaan Nilai di Jalan Menuju AI Yang Kuat


Kecerdasan buatan memberikan nilai yang cukup besar saat ini dalam berbagai
aplikasi seperti Alexa atau Google Assistant, Musik yang dihasilkan AI, alat gambar modern
dengan pencarian dan penyortiran otomatis berdasarkan konten, atau kamera smartphone
modern. Dan sementara ada banyak ketidakpastian di sekitar jika dan kapan Strong AI akan
layak, nampaknya setiap langkah ke arah itu akan menghasilkan produk sampingan dari nilai
intelektual dan ekonomi yang signifikan.
Berikut adalah beberapa contoh hasil perantara potensial dalam perjalanan menuju
AI Kuat:
Visi komputer dengan data pelatihan minimal: sementara jaringan saraf dalam
mencapai akurasi tingkat manusia dalam tugas-tugas pengenalan gambar tertentu, kebutuhan
set data pelatihan besar masih membuat banyak kasus penggunaan tidak layak secara teknis
atau ekonomis. Secara khusus, ini adalah kasus ketika sistem perlu belajar yang besar jumlah
kasus tepi (mis. mobil self-driving) atau ketika ketersediaan data pelatihan terbatas (misalnya
dalam skenario diagnosis medis tertentu).
Pemrosesan bahasa alami: masih sulit bagi komputer untuk membentuk pemahaman
tentang data tekstual yang tidak terstruktur. Baru-baru ini ada langkah-langkah yang
mengesankan dalam arah ini seperti Google BERT [5], yang menggunakan pembelajaran
representasi tanpa pengawasan dengan jaringan dua arah untuk mentransfer pembelajaran
dalam pemrosesan bahasa alami.
Pengenalan tindakan yang akurat: masih cukup sulit untuk melatih algoritma dalam
mengenali tindakan yang dilakukan dalam urutan video [30]. Kemajuan dalam pengenalan
tindakan mungkin membuka kasus penggunaan yang relevan secara ekonomi, mis. di
pengawasan keamanan atau dalam interaksi manusia-mesin.

3. Ilmu Saraf sebagai Inspirasi untuk Penelitian AI


Seperti yang dinyatakan dalam pengantar, pembelajaran mendalam hari ini secara
longgar didasarkan pada konsep-konsep neuroscientific dari sekitar 60 tahun lalu. Melihat
ledakan saat ini dalam algoritma dan aplikasi, aman untuk mengatakan bahwa inspirasi ini
telah menjadi keberhasilan. Sementara itu, para ilmuwan telah menghasilkan sejumlah besar
informasi tambahan tentang otak. Akankah ini pengetahuan membantu kami untuk
merancang algoritma AI generasi berikutnya? Kesulitan utama adalah pemahaman kita yang
masih terbatas prinsip kerja dasar otak. Bagaimana mereka bisa diungkapkan? Apakah
mungkin untuk memajukan ilmu saraf dan AI penelitian bergandengan tangan? Untuk
memberikan intuisi untuk pertanyaan-pertanyaan ini, cukup instruktif untuk memulai dengan
analogi dari bidang terkait di mana kami memiliki pemahaman penuh tentang sistem yang
dimaksud: komputer.
3.1 Dapatkah Anda Mengetahui Cara Kerja Microchip?
Ada dua pendekatan yang jelas untuk mengatasi masalah:
Dalam "pendekatan tingkat tinggi", kami akan mencoba mengidentifikasi tujuan berbagai
komponen komputer. Untuk Sebagai contoh, kami akan mencari tahu apa yang dilakukan
oleh adaptor grafis atau hard drive hanya dengan menghapusnya dan mengamati
efek yang ini miliki pada fungsi komputer. Tapi, tentu saja, masih akan tetap menjadi misteri
bagaimana komponen ini bekerja. Dalam "pendekatan tingkat rendah", kami akan mencoba
mencari tahu bagaimana salah satu komponen bekerja secara internal. Kita mungkin
mengelola untuk membuka prosesor tanpa merusaknya dan melakukan serangkaian
percobaan dengannya. Kami mungkin akan terkejut oleh kompleksitas artefak yang sangat
besar: di bawah mikroskop kita akan melihat struktur yang terlihat seperti jaringan jalan
dengan jutaan jalan dan persimpangan. Kita akan mencatat bahwa "jalan" adalah konduktor
listrik dan "penyeberangan" memiliki sifat khusus bahwa arus listrik dapat mengalir di antara
dua koneksi mereka hanya jika ada tegangan yang diterapkan ke yang ketiga. Kita mungkin
menyebut penyeberangan ini sebagai "transistor", dan kita akan bertanya-tanya bagaimana
komputer dapat menghasilkannya perilaku yang kompleks jika pada dasarnya hanya terdiri
dari komponen sederhana seperti itu. Jelas, apa yang kita lewatkan adalah teori prinsip-
prinsip dasar pengoperasian komputer. Teori seperti itu akan melakukannya menggabungkan
beberapa konsep utama, khususnya:
• Angka dapat dinyatakan dalam sistem biner,
• Nomor biner dapat disimpan sebagai status hidup / mati di sirkuit listrik,
• Transistor dapat dihubungkan sedemikian rupa sehingga mereka melakukan operasi
matematika dasar pada bilangan biner, dan
• Bergantung pada konteksnya, angka biner dapat ditafsirkan sebagai titik data (mis. Warna
piksel dalam image), perintah ke unit pemrosesan (mis. untuk menambah atau mengalikan
beberapa angka biner lainnya), atau sebagai indeks menunjuk ke beberapa lokasi dalam
memori (mis. untuk menyimpan hasil perhitungan di sana).

3.2 Lapisan Tengah Otak


Lapisan bawah terdiri dari neuron individu yang memainkan peran mereka sebagai
"transistor otak". Ada sejumlah besar informasi yang tersedia pada semua jenis neuron yang
berbeda, biokimia mereka, cara mereka terhubung satu sama lain, dan bagaimana mereka
menembak. Banyak metode eksperimental canggih telah dikembangkan untuk memanipulasi
dan mengamati perilaku neuron individu atau kelompok kecil mereka. Berbagai macam
model teoritis telah diusulkan untuk menjelaskan perilaku mereka, misalnya, dari perspektif
kimia, fisik, atau informasi-teoretis. Untuk gambaran umum pengantar model-model tersebut,
lihat buku Dayan dan Abbott [4]. Lapisan atas otak terdiri dari daerah otak yang berbeda dan
distribusi pekerjaan di antara mereka. Secara historis, beberapa pengetahuan paling awal
diperoleh dari mengamati efek lesi otak terhadap korban perang atau kecelakaan. Misalnya,
pekerja kereta api Phineas Gage menjadi terkenal pada tahun 1848 karena selamat dari
ledakan yang menembakkan batang besi melalui tengkoraknya, menghancurkan banyak lobus
frontal kiri otaknya.
Tampaknya situasi kita mirip dengan eksperimen pemikiran microchip: kita tahu
banyak tentang puncak otak dan lapisan bawah, tetapi ini tidak cukup untuk menyelesaikan
misteri lapisan tengah. Dan taruhan terbaik kita untuk memahami otak adalah
menciptakannya. Namun, menciptakan teori untuk seluruh otak adalah tugas yang
monumental. Untuk membuatnya lebih mudah ditelusuri, kita akan mulai dengan properti
mendasar dari persepsi otak: kemampuan untuk membentuk invarian representasi dengan
cara yang tidak diawasi. Kami akan membahas representasi invarian sebagai fokus strategi
penelitian kami di bagian selanjutnya.

3.3 Representasi Invarian


Representasi invarian ini tampaknya menjadi blok bangunan yang membentuk dasar
dari semua fungsi kognitif yang lebih tinggi; akal sehat sebagian besar bertumpu pada
kemampuan untuk meramalkan ide dan konsep secara fleksibel. Sebagai contoh, asumsikan
bahwa kita menemukan burung dari spesies yang sebelumnya tidak kita kenal. Representasi
kami yang tidak berubah dari konsep "burung" pertama-tama memungkinkan kami untuk
mengenali hewan yang tidak dikenal ini sebagai burung. Kedua, itu langsung membawa kita
pada asumsi itu hewan ini bisa terbang karena kebanyakan burung lain bisa.
Singkatnya, representasi invarian tampak mendasar bagi kognisi manusia dan
karenanya kami menganggapnya demikian menjadi sangat penting di jalur menuju AI Kuat.
Sampai sekarang, tidak diketahui bagaimana representasi invarian dibuat dalam otak biologis
atau bagaimana mereka dapat dibuat dalam algoritma abstrak (ikhtisar yang baik dari ide-ide
baru dan literatur dapat ditemukan dalam buku oleh Poggio dan Anselmi [23]). Membuat
kemajuan menuju solusi dari misteri ini adalah inti dari strategi penelitian kami.

3.3.1 Algoritma Kortikal


Untuk menemukan sudut dari mana kita bisa mendekati masalah representasi
invarian, mari kita berpikir kembali ke Mountcastle dugaan dari satu algoritma kortikal.
Mungkinkah algoritma tunggal cukup kuat dan fleksibel untuk mempelajari cara mengenali
lagu kucing dan Beatles? Jika Anda ragu, pikirkan fleksibilitas luar biasa yang diperlihatkan
otak manusia. Ia berhasil membuat representasi invarian berdasarkan jenis input data yang
sangat berbeda; tidak peduli apakah manusia itu buta, tuli, lumpuh, bermata satu, atau
berpandangan pendek, mereka berhasil menciptakan representasi mental dunia yang koheren
dan "benar" dalam arti memungkinkan manusia untuk berhasil menavigasi dan berinteraksi
dengan lingkungan.
Jika kita mengasumsikan bahwa algoritma kortikal ada, maka kita harus menyimpulkan
bahwa itu hanya dapat membuat minimal asumsi tentang input data yang diterimanya. Kita
tahu bahwa itu harus bekerja dengan data visual yang ditangkap pada retina dua dimensi serta
data audio yang terdaftar sebagai spektrum frekuensi di koklea.

Kami berhipotesis bahwa asumsi penting adalah sebagai berikut:


1. Entitas disusun secara hierarkis: objek 3D terdiri dari objek yang lebih sederhana,
permukaan atau tepi dan suara campuran frekuensi.
2. Entitas mungkin urutan (hierarkis) dalam waktu: tindakan ('minum kopi') adalah urutan
"sub-tindakan" ("Ambil gelas", "minum", "letakkan cangkir di atas meja"). Sebuah lagu
adalah urutan not, yang masing-masing merupakan evolusi waktu dari campuran frekuensi
ketika dimainkan pada instrumen tertentu. Perhatikan bahwa secara umum entitas adalah
urutan waktu, tetapi mereka tidak harus seperti itu. Objek 3D yang tidak bergerak atau vokal
yang diucapkan akan menjadi kasus khusus dari entitas dengan urutan waktu sepele.
3. Entitas stabil dalam waktu: cara kita memandang entitas berubah pada tingkat yang jauh
lebih cepat daripada entitas diri. Sebagai contoh, ketika kita melihat mobil melaju di jalan,
kita melihatnya dari berbagai sudut sebelum tidak terlihat. Antara muncul dan menghilang,
kita akan melihat satu dan entitas yang sama.

3.3.2 Pembelajaran Representasi Invarian yang Tidak Terawasi


Ada masalah ruang kemungkinan metrik adalah besar secara astronomis dan kami
hanya memiliki sejumlah kecil titik data yang diamati selanjutnya. Bagaimana algoritma
dapat memperkirakan dari pengamatan ke ruang penuh? Berikut ini adalah garis besar kasar
tentang bagaimanaalgoritmatersebutdapatbekerja:
1. Mengenali entitas sederhana: pada awal proses pembelajaran kita, jelas tidak mungkin
untuk dikenali entitas kompleks (seperti gambar kucing atau lagu lengkap), karena biasanya
tidak akan ada pengamatan yang sama berulang dari entitas yang sama dan kami belum
memiliki konsep kesamaan yang berguna. Namun dimungkinkan untuk mengenali entitas
dasar tertentu berdasarkan statistik; misalnya, dalam gambar algoritma akan menemukan tepi
sebagai pola berulang. Demikian pula, dalam kasus musik mungkin mengidentifikasi
kombinasi frekuensi tertentu (mis. nada dan nada) sebagai pola dasar.
2. Pelajari transformasi: dengan mengamati ketergantungan waktu dari entitas dasar yang
terdeteksi, transformasi dasar bisa dipelajari. Sebagai contoh, dalam kasus urutan video
algoritma akan belajar tepi itu cenderung bergerak dengan cara tertentu yang sangat
berkorelasi.

3.4 Ringkasan Strategi Penelitian AI


Dengan mempertimbangkan semua ide dan pertimbangan dari buku putih ini, kami telah
mendefinisikan penelitian berikut strategi untuk mencapai tujuan ini:
• Fokus pada representasi invarian: kunci Strong AI adalah teori otak - lapisan tengah otak.
Kunci lapisan tengah otak adalah representasi invarian.
• Tanpa pengawasan dan asumsi di otak, representasi invarian tampaknya terbentuk dalam
tanpa pengawasan jalan dengan algoritma kortikal tunggal. Karena itu prioritas kami adalah
menemukan algoritma yang membuat invarian representasi tanpa pengawasan dan dengan
asumsi minimal pada input data.
• Pikirkan kembali dasar-dasarnya: kami bekerja untuk memahami dasar-dasar kecerdasan
dan menemukan cara-cara baru yang radikal menciptakan AI. Ini bukan tujuan utama kami
untuk meningkatkan akurasi klasifikasi dalam beberapa pembelajaran mesin menantang
dengan beberapa poin persentase lagi. Ini berarti bahwa kita kadang-kadang akan memilih
tingkat abstraksi yang mungkin membatasi kegunaan praktis dalam jangka pendek tetapi itu
mungkin memungkinkan kita untuk lebih memahami kecerdasan.
• Pendekatan interdisipliner: kami bertujuan untuk memecahkan masalah representasi
invarian dari tiga sudut:
1. Pendekatan abstrak: mendefinisikan objek matematika yang menggambarkan entitas umum
dan membangun "teori."
2. Pendekatan perangkat lunak: membangun algoritma prototipe yang mengimplementasikan
aspek-aspek teori, dan
3. Pendekatan neuroscience: mengidentifikasi sirkuit saraf yang menerapkan aspek-aspek dari
teori invarian representasi untuk memvalidasi dan menyesuaikan teori dan untuk
meningkatkan pemahaman kita tentang otak. Kita percaya bahwa untuk memahami otak,
Anda harus menciptakannya. Daripada mencoba menjelaskan apa yang dilakukan otak, kita
fokus pada apa yang harus dilakukan otak untuk memperoleh kemampuan yang diketahui
dimiliki otak.

Anda mungkin juga menyukai