Anda di halaman 1dari 19

INTELLIGENT AGENTS

Russell, S and Norvig, P Artificial Intelligence: A Modern Approach


Prentice Hall, 2010, Third Edition

Pembahasan tetang sifat kesempurnaan atau sebaliknya agen, keragaman


lingkungan, dan jenis agen kecerdasan buatan yang dihasilkan.
Agen dan Lingkungannya
Agen adalah segala sesuatu yang dapat mengetahui atau memahami
lingkungannya melalui sebuah alat sensor dan sensor bertindak untuk
memahami lingkungannya melalui alat Aktuator.
Manusia sebagai Agen, memiliki mata, telinga, organ yang lainnya sebagai
sensor, dan tangan, kaki, mulut dan bagian tubuh lainnya sebagai Aktuator.
Robot sebagai Agen, Kamera dan Infra Red sebagai sensor, serta berbagai
motor sebagai aktuator.
Software atau Perangkat Lunak sebagai Agen, Tombol yang ditekan,
Data/File dan Paket Jaringan sebagai sensor input, sedangkan tampilan layar,
menulis file serta pengiriman paket jaringan sebagai output aktuator.
AGEN Sensor Persepsi

Lingkungan
?

Aktuator
Aksi/Tindakan

Gambar 1.1 Gambar ilustrasi Interaksi agen dengan lingkungannya dengan


sensor dan aktuator

Istilah persepsi utuk melihat masukan yang diterima agen pada saat tertentu,
urutan persepsi agen (Percept Sequence) adalah masukan dari pertama sampai
terakhir dari semua hal yang pernah dirasakan oleh agen.
Secara umum, agen melakukan tindakan pada waktu tertentu dengan urutan
pertama sampai yang terakhir bergantung pada semua persepsi .
Kita dapat menggambarkan fungsi agen dari agen yang diminta dalam bentuk
tabulasi tabel. Dari kebanyakan agen memiliki tabel yang besar dan tak terbatas,
dalam faktanya kecuali kita membatasi panjang dari urutan persepsi yang ingin
kita gunakan. Kita dapat memberikan sebuah agen dengan eksperimen membuat
tabel mencoba semua kemungkinan urutan persepsi dan merekam aksi
Contoh Vacum Cleaner

Persepsi (Lokasi dan Isi) Aksi


[A, Bersih ] Kanan
[A, Kotor ] Mnghisap
[B, Bersih ] Kiri
[B, Kotor ] Menghisap
[A, Bersih ] [A, Bersih ] Kanan
[A, Bersih ] [A, Kotor ] Menghisap
.....
.....
[A, Bersih ] [A, Bersih ] [A, Bersih Kanan
]
[A, Bersih ] [A, Bersih ] [A, Kotor ] Menghisap

Sebelum menutup bagian ini, kita harus menekankan bahwa gagasan tentang
agen dimaksudkan untuk menjadi alat untuk menganalisa sistem, bukan
karakterisasi mutlak yang membelah dunia. Agen Manusia dan non-agen
Manusia bisa melihat kalkulator genggam, sebagai agen yang memilih tindakan
menampilkan "4" bila diberi urutan persepsi "2 + 2 =," tapi seperti analisis tidak
akan membantu pemahaman kita tentang kalkulator. Dalam arti, semua bidang
teknik bisa dilihat untuk merancang tata letak yang berinteraksi dengan dunia;
AI beroperasi di ujung spektrum yang paling menarik, di mana tata letak
memiliki cukup sumber daya komputasi dan tugas lingkungan memerlukan
pengambilan keputusan yang tidak penting.
Konsep Rasionaliti
Agen rasional adalah satu agen rasional yang melakukan hal yang benar - secara
konseptual berbicara pada setiap entri di tabel diisi sebagai fungsi agen yang
benar. Jelas, melakukan hal yang benar lebih baik daripada melakukan hal yang
salah, tapi apa artinya melakukan hal yang benar?
Rasionality pada waktu tertentu bergantung kepada 4 hal :
• Ukuran kinerja yang mendefinisikan kriteria keberhasilan.
• Pengetahuan sebelumnya tentang lingkungan.
• Tindakan yang dapat dilakukan agen.
• Urutan persepsi agen sampai saat ini.
definisi agen rasional:

Agen Rasional
Untuk setiap kemungkinan urutan persepsi, agen rasional harus memilih
tindakan yang diharapkan untuk memaksimalkan ukuran kinerjanya, mengingat
bukti yang diberikan oleh persepsi urutan dan apa pun pengetahuan built-in
yang dimiliki agen.

Pertimbangkan agen pembersih vakum sederhana yang membersihkan area jika


kotor dan bergerak ke arah area yang lain. Mari kita asumsikan sebagai berikut:
• Ukuran kinerja memberi penghargaan satu poin untuk setiap kotak bersih
setiap saat, selama seumur hidup dari 1000 langkah waktu.
• Geografi lingkungan dikenal secara apriori namun distribusi kotorannya
dan lokasi awal agen tidak.
• Satu-satunya tindakan yang tersedia adalah Kiri, Kanan, dan Suck.
• Agen dengan benar merasakan lokasinya dan apakah lokasi itu berisi
kotoran, Kami mengklaim bahwa dalam keadaan seperti ini agen itu
memang rasional; kinerja yang diharapkan setidaknya setinggi agen
lainnya.
• Orang bisa melihat dengan mudah bahwa agen yang sama akan tidak
rasional dalam situasi yang berbeda.
• Misalnya, setelah semua kotoran dibersihkan, agen akan terombang-
ambing tanpa perlu kembali dan sebagainya;
• Jika ukuran kinerja mencakup hukuman satu poin untuk setiap gerakan
yang tersisa atau benar, agen akan dikenakan biaya buruk. Agen yang lebih
baik untuk kasus ini tidak akan melakukan apa-apa saat melakukannya
dengan yakin bahwa semua kotak itu bersih. Jika kotak bersih bisa menjadi
kotor lagi, seharusnya agen sesekali periksa dan bersihkan kembali jika
diperlukan. Jika geografi lingkungan tidak diketahui, agen perlu
menjelajahinya daripada menempelkan kotak A dan B.

Definisi kami membutuhkan agen rasional tidak hanya untuk mengumpulkan


informasi tapi juga untuk belajar sebanyak mungkin dari apa yang
dirasakannya. Konfigurasi awal agen bisa mencerminkan beberapa
pengetahuan sebelumnya tentang lingkungan, namun seiring dengan kemajuan
agen, hal ini mungkin terjadi dimodifikasi dan diperbesar Ada beberapa kasus
ekstrem di mana lingkungan benar-benar ada dikenal apriori. Dalam kasus
seperti itu, agen tidak perlu melihat atau belajar; tetapi hanya bertindak dengan
benar. Tentu saja, agen semacam itu rapuh. Pertimbangkan kumbang kotoran
rendah. Setelah menggali sarangnya dan
bertelur, ia mengambil bola kotoran dari tumpukan di dekatnya untuk
menyambungkan pintu masuk. Jika bola kotoran dikeluarkan dari
genggamannya dalam perjalanan, kumbang melanjutkan tugas dan
pantomimnya sarang dengan bola kotoran yang tidak ada, tidak pernah
memperhatikan bahwa itu hilang. Evolusi telah membangun asumsi tentang
perilaku kumbang, dan bila dilanggar, perilaku tidak berhasil hasil. Sedikit lebih
cerdas adalah tawon sphex. Sphex betina akan menggali liang, pergi keluar dan
menyengat ulat dan menyeretnya ke liang, masukkan liang kembali untuk
memeriksa semuanya Nah, seret ulat ke dalam, dan bertelur. Ulat berfungsi
sebagai sumber makanan kapan telur menetas Sejauh ini bagus, tapi kalau
entomolog menggerakkan ulat beberapa inci Sementara sphex sedang
melakukan pemeriksaan, ia akan kembali ke langkah "seret" dari rencana dan
kehendaknya lanjutkan rencana tanpa modifikasi, bahkan setelah puluhan
intervensi bergerak ulat. Sphex tidak dapat mengetahui bahwa rencana
bawaannya gagal, dan karenanya tidak akan mengubahnya. Sejauh agen
bergantung pada pengetahuan sebelumnya tentang perancangnya daripada
OTONOMI pada persepsi sendiri, kami mengatakan bahwa agen tersebut
kekurangan otonomi. Agen rasional seharusnya otonom - ia harus belajar apa
yang bisa untuk mengimbangi sebagian atau bahkan salah pengetahuan
sebelumnya. Misalnya, agen pembersih vakum yang belajar untuk
memperkirakan di mana dan kapan tambahan kotoran akan muncul akan lebih
baik dari pada yang tidak. Sebagai masalah praktis, seseorang jarang
membutuhkan Otonomi lengkap sejak awal: kapan si agen hanya punya sedikit
pengalaman atau tidak harus bertindak secara acak kecuali perancang
memberikan bantuan. Jadi, sama seperti evolusi menyediakan cukup refleks
built-in bagi hewan untuk bertahan cukup lama untuk belajar sendiri, akan
masuk akal untuk menyediakan agen cerdas buatan dengan beberapa
pengetahuan awal serta kemampuan untuk belajar. Setelah cukup pengalaman
lingkungannya, tingkah lakunya dari agen rasional dapat menjadi efektif
independen dari pengetahuan sebelumnya. Oleh karena itu, Penggabungan
pembelajaran memungkinkan seseorang merancang satu agen rasional yang
akan berhasil dalam berbagai macam lingkungan.
Spesifikasi Tugas Lingkungan
Dalam pembahasan kami tentang rasionalitas agen pembersih vakum
sederhana, kami harus menentukannya ukuran kinerja, lingkungan, dan aktuator
dan sensor agen. Dalam merancang sebuah agen, yang mendefinisikan
lingkungan dibutuhkan PEAS (Performance, Environment, Actuators, Sensors).
Mari kita pertimbangkan masalah yang lebih kompleks:
Sopir taksi otomatis
Taksi otomatis saat ini agak jauh dari kemampuan teknologi yang ada. Tugas
mengemudi penuh sangat terbuka. Sebuah agent taksi otomatis yang menerima
penumpang dan mengantarkannya ke tujuan :
• Performance measure: sampai tujuan, tidak melanggar aturan lalu lintas,
perjalanan nyaman, hemat bensin
• Environment: jalan, lalu lintas, pejalan kaki, pelanggan
• Actuators: arah stir, gas, rem, klakson, sinyal kiri atau kanan
• Sensors: video, speedometer, GPS, keyboard

Sifat Tugas Lingkungan


Rentang lingkungan tugas yang mungkin timbul dalam Kecerdasan Buatan jelas
luas. Kita bisa, Mengidentifikasi sejumlah dimensi yang cukup kecil di
sepanjang lingkungan tugas mana yang dapat dikategorikan. Dimensi ini
menentukan, untuk sebagian besar, desain agen yang tepat dan penerapan
masing-masing keluarga utama untuk teknik untuk implementasi agen. Berikut
beberapa contoh rentang lingkungan tugas sebuah agen dengan deskripsi PEAS
Kegiatan
Tipe Agen yang Lingkungan Actuator Sensor
diukur
Diagnosa Pasien Pasien, Layar Keyboard
Sistem sembuh, Rumah Sakit, Monitor (masukan
Kesehatan biaya murah Staff (pertannyaan, gejala
tes, penyakit,
diagonosa, jawaban
treatment, pasien)
petunjuk)
Robot Prosentase Ban berjalan, Kotak Kamera,
Pabrik jumlah komponen sensor fisik
Penjamin komponen yang diuji
mutu yang
diletakkan
pada kotak
dengan
benar
Tutor Perolehan Para siswa Layar monitor Keyboard
Inggris nilai
Interative maksimal
Sistem Kategori Pengambilan Kategori Urutan
analis gambar yang data dari pemetaan warna pixel
gambar sesuai satelit gambar
satelit
Pegontrol Kemurnian, Kilang Katup, Temperatur,
kilang hasil, minyak, pompa, tekanan,
minyak keamanan operator pemanas, sensor kimia
tampilan

Pernyataan dan contoh yang lebih tepat setiap jenis lingkungan


Sepenuhnya dapat diamati vs sebagian dapat diamati:
Sepenuhnya Observable Jika sensor agen memberikannya akses ke sebagian
observable melengkapi keadaan lingkungan pada setiap titik waktu, maka kita
mengatakan bahwa lingkungan tugas sepenuhnya dapat diamati. Lingkungan
tugas secara efektif dapat diamati sepenuhnya jika sensornya mendeteksi semua
aspek yang relevan dengan pilihan tindakan relevansi, pada gilirannya,
tergantung pada ukuran kinerja Lingkungan yang dapat diamati sepenuhnya
nyaman karena agen membutuhkan tidak menjaga keadaan internal apapun
untuk melacak dunia. Lingkungan mungkin sebagian dapat diamati karena
sensor yang berisik dan tidak akurat atau karena bagian-bagian dari negara
adalah sederhana, hilang dari data sensor-misalnya, agen vakum hanya dengan
sensor kotoran lokal Tidak bisa tahu apakah ada kotoran di kotak lain, dan taksi
otomatis tidak bisa melihat yang lainnya pengemudi sedang berpikir Jika agen
tidak memiliki sensor sama sekali maka lingkungannya tidak sanggup terawasi.
Orang mungkin berpikir bahwa dalam kasus seperti itu, keadaan agen tidak ada
harapan, tapi, seperti yang kita diskusikan, tujuan agen mungkin masih bisa
dicapai, terkadang juga belum.
Agen tunggal vs Multi Agen.
Perbedaan antara agen tunggal dan multi agen lingkungan mungkin tampak
sederhana. Untuk contoh, Agen memecahkan teka-teki silang oleh itu sendiri
jelas ada dalam lingkungan agen tunggal, sedangkan agen yang bermain catur
ada dua kategori
lingkungan Hidup. Namun ada beberapa masalah halus. Pertama, kita telah
menggambarkan bagaimana sebuah Entitas dapat dipandang sebagai agen,
namun kami belum menjelaskan entitas mana yang harus dilihat sebagai agen.
Apakah agen A (supir taksi misalnya) harus merawat objek B (yang lain
kendaraan) sebagai agen, atau dapatkah itu diperlakukan hanya sebagai obyek
yang berperilaku sesuai dengan hukum fisika, analog dengan ombak di pantai
atau daun meniup angin? Perbedaan utama apakah perilaku B paling baik
digambarkan sebagai memaksimalkan ukuran kinerja yang nilainya tergantung
pada perilaku agen A. Misalnya, di catur, entitas lawan B sedang mencoba
memaksimalkan ukuran kinerjanya, dengan aturan catur, meminimalkan kinerja
agen A yang mengukur. Jadi, catur KOMPETITIF adalah lingkungan multiagen
yang kompetitif. Dalam pengemudi taksi menghindari tumbukan
memaksimalkan ukuran kinerja.
Sebab, misalnya, hanya satu mobil yang bisa menempati tempat parkir, desain
agen masalah di lingkungan multiagent seringkali sangat berbeda dengan
lingkungan agen tunggal; Misalnya, komunikasi sering muncul sebagai perilaku
rasional dalam multiagen lingkungan; Dalam beberapa lingkungan yang
kompetitif, perilaku acak adalah rasional karena ini menghindari jebakan
prediktabilitas.
Deterministik vs stochastic.
Jika keadaan lingkungan selanjutnya benar-benar menghalangi-stochastic
diambil oleh keadaan saat ini dan tindakan yang dilakukan oleh agen, maka kita
katakan lingkungannya bersifat deterministik, Jika tidak itu adalah stokastik.
Pada prinsipnya, agen tidak perlu khawatir dengan ketidakpastian dalam
lingkungan deterministik yang dapat diamati sepenuhnya. Dalam definisi kami,
kami mengabaikan ketidakpastian yang timbul murni dari tindakan agen lain di
lingkungan multiagen, demikian permainan bisa deterministik meskipun
masing-masing agen mungkin tidak dapat memprediksi tindakannya yang lain.
Jika lingkungan sebagian dapat diamati, bagaimanapun, maka itu bisa tampak
stochastic. Situasi yang paling nyata begitu kompleks sehingga tidak mungkin
untuk melacak semua aspek yang tidak teramati, Untuk tujuan praktis, mereka
harus diperlakukan sebagai stokastik. Mengemudi taksi adalah Jelas stokastik
dalam pengertian ini, karena orang tidak pernah bisa memprediksi perilaku lalu
lintas dengan tepat, Apalagi, ban seseorang meledak dan mesinnya mereda
tanpa peringatan. Vakum Dunia seperti yang kita gambarkan itu deterministik,
tapi variasi bisa termasuk elemen stokastik, seperti kotoran yang muncul secara
acak dan mekanisme hisap yang tidak dapat diandalkan. Kita bilang
Lingkungan yang tidak biasa tidak pasti jika tidak sepenuhnya dapat diamati
atau tidak deterministik. Satu catatan terakhir Penggunaan kata "stokastik" pada
umumnya menyiratkan bahwa ketidakpastian tentang hasil adalah
Nondeterministic disamakan dalam hal probabilitas; lingkungan
nondeterministik adalah tempat tindakan ditandai dengan hasil yang mungkin
mereka dapatkan, namun tidak ada probabilitas yang melekat padanya. Tidak
menentu Deskripsi lingkungan biasanya dikaitkan dengan ukuran kinerja itu
mewajibkan agen untuk meraih semua kemungkinan hasil tindakannya

Diskrit vs. Kontinu.


Perbedaan diskrit / kontinyu berlaku untuk keadaan lingkungan berikutnya,
dengan cara waktu ditangani, dan terhadap persepsi dan tindakan agen. Untuk
Misalnya, lingkungan catur memiliki jumlah negara yang berbeda (tidak
termasuk jam). Catur juga memiliki seperangkat persepsi dan tindakan
tersendiri. Pengemudi taksi adalah negara yang terus-menerus dan Masalah
terus-menerus: kecepatan dan lokasi taksi dan kendaraan lainnya menyapu
melalui berbagai nilai kontinyu dan melakukannya dengan lancar dari waktu ke
waktu. Tindakan pengemudi taksi juga terus menerus (sudut kemudi, dll).
Masukan dari kamera digital adalah diskrit, tegasnya, namun biasanya
diperlakukan sebagai intensitas dan lokasi yang terus berubah.
Dikenal Dikenal vs. tidak diketahui:
Sebenarnya, perbedaan ini tidak mengacu pada lingkungan tidak dikenal itu
sendiri, tapi untuk pengetahuan agen (atau desainer) tentang "hukum fisika"
dari lingkungan. Di lingkungan yang dikenal, hasil (atau kemungkinan hasil jika
lingkungan adalah stokastik) untuk semua tindakan yang diberikan. Jelas, jika
lingkungan tidak diketahui, agen harus mempelajari cara kerjanya agar bisa
mengambil keputusan yang baik. Perhatikan bahwa Perbedaan antara
lingkungan yang dikenal dan yang tidak diketahui tidak sama dengan yang ada
di antara lingkungan yang dikenal dan tidak diketahui lingkungan sepenuhnya
dan sebagian dapat diamati. Hal ini sangat mungkin untuk lingkungan yang
dikenal Sebagian dapat diamati - misalnya, dalam permainan kartu solitaire,
saya tahu peraturannya tapi saya Masih belum bisa melihat kartu yang belum
dibalik. Sebaliknya, yang tidak diketahui lingkungan dapat sepenuhnya dapat
diamati - dalam permainan video baru, layar mungkin menunjukkan
keseluruhannya Status game tapi saya masih belum tahu apa tombolnya sampai
saya mencobanya. Seperti yang bisa diduga, kasus tersulit sebagian dapat
diamati, multiagent, stokastik, berurutan, dinamis, kontinyu, dan tidak
diketahui. Taksi mengemudi sangat sulit dalam semua indera ini, kecuali
Sebagian besar lingkungan pengemudi diketahui. Mengendarai mobil sewaan
di negara baru dengan geografi dan undang-undang lalu lintas yang asing juga
semakin menarik.
Gambar tabel dibawah ini mencantumkan properti dari sejumlah lingkungan
yang sudah dikenal. Perhatikan bahwa Jawaban tidak selalu dipotong dan
dikeringkan. Sebagai contoh, kita menggambarkan robot pemetik bagian
sebagai episodik, karena biasanya menganggap setiap bagian menjadi terisolasi,
tetapi suatu hari bagian itu menjadi luas.
Tabel Contoh pengaruh lingkungan dan karakkeristiknya
Perinah Observasi Agen Penetapan Episode Statik Berkelanju
Lingkungan tan
Permainan Penuh Tunggal Ditetapkan Mempunyai Statik Tidak
puzzle silang umpan ballik
Catur dengan Penuh Multi Ditetapkan Mempunyai Semi Tidak
waktu umpan ballik
Poker Sebagian Multi Belum pasti Mempunyai Statik Tidak
umpan ballik
Backgammon Penuh Multi Belum pasti Mempunyai Statik Tidak
umpan ballik
Pengemudi Sebagian Multi Belum pasti Mempunyai Dinami Berkelanjut
taxi umpan ballik k an
Diagnosa Sebagian Tunggal Belum pasti Mempunyai Dinami Berkelanjut
kesehatan umpan ballik k an
Analisis Penuh Tunggal Ditetapkan Episodic Semi Berkelanjut
gambar an
Robot Sebagian Tunggal Belum pasti Episodic Dinami Berkelanjut
pengepak k an
Pengontrol Sebagian Tunggal Belum pasti Mempunyai Dinami Berkelanjut
kilang miyak umpan ballik k an
Tutor inggris Sebagian Multi Belum pasti Mempunyai Dinami Tidak
interactive umpan ballik

Struktur Agen
Sejauh ini kita telah berbicara tentang setiap urutan persepsi agen dengan
menggambarkan perilaku - tindakan yang dilakukan setelahnya. Tugas AI
adalah merancang program agen untuk mengimplementasikan fungsi agen-
pemetaan dari persepsi terhadap tindakan. Kami menganggap program ini akan
berjalan dengan semacam arsitektur perangkat komputasi dengan sensor fisik
dan aktuator.
agent = arsitektur + program
Tentunya program yang kita pilih harus menjadi salah satu yang sesuai untuk
arsitektur. Jika
Program ini akan merekomendasikan tindakan seperti tangan, arsitekturnya
lebih baik memiliki kaki. Itu Arsitektur mungkin hanya PC biasa, atau mungkin
itu adalah mobil robot dengan beberapa onboard komputer, kamera, dan sensor
lainnya. Secara umum, arsitektur membuat persepsi dari sensor yang tersedia
untuk program ini, menjalankan program, dan memberi makan pilihan tindakan
program ke aktuator seperti yang dihasilkan.
Program Agen
Program agen yang kami desain semuanya memiliki kerangka yang sama:
mereka mengambil
persepsi saat ini sebagai masukan dari sensor dan mengembalikan tindakan ke
aktuator. Perbedaan antara program agen, yang mengambil persepsi saat ini
sebagai masukan, dan agen
fungsi, yang mengambil seluruh persepsi sejarah. Program agen hanya
membutuhkan arus persepsi sebagai masukan karena tidak ada lagi yang
tersedia dari lingkungan; jika tindakan agen Perlu bergantung pada keseluruhan
urutan persepsi, agen harus mengingat persepsi.
Empat jenis program agen dasar itu mewujudkan prinsip-prinsip yang
mendasari hampir semua sistem cerdas:
• Agen refleks sederhana, Memilii representasi internal tentang keadaan sekitar
• Agen refleks berbasis model; Memiliki informasi tentang tujuan, memilih
tindakan yang mencapai tujuan
• Agen berbasis tujuan; Melakukan penilaian kuantitatif terhadap suatu keadaan
lingkungan
• Agen berbasis utilitas. Belajar dari pengalaman, meningkatkan kinerja.

1. Agen Reflek Sederhana (Simple Reflex Agent)


Jenis agen yang paling sederhana. Agen ini memilih tindakan atas dasar
Agen dari persepsi saat ini, mengabaikan sisa sejarah persepsi. Misalnya,
agen vakum Fungsi agen yang ditabulasikan pada Gambar dibawah ini
adalah agen refleks sederhana, karena keputusannya hanya berdasarkan
lokasi saat ini dan apakah lokasi itu berisi kotoran. Agen
Spesifik untuk satu lingkungan vakum tertentu. Lebih Pendekatan umum
dan fleksibel adalah pertama untuk membangun penerjemah tujuan umum
untuk kondisi-aturan tindakan dan kemudian membuat kumpulan aturan
untuk lingkungan tugas tertentu. Gambar diatas memberikan Struktur
program umum ini dalam bentuk skematik, menunjukkan bagaimana aturan
tindakan-tindakanmemungkinkan agen untuk membuat sambungan dari
persepsi ke tindakan.
2. Agen refleks berbasis model (Model-Based reflex Agents)
Cara yang paling efektif untuk menangani pengamatan parsial adalah agar
agen melacaknya bagian dari dunia yang saat sekarang tidak terlihat .
Artinya, agen harus menjaga semacam internal menyatakan bahwa
tergantung pada persepsi sejarah dengan demikian mencerminkan
setidaknya beberapa yang tidak teramati aspek keadaan saat ini. Untuk
masalah pengereman, keadaan internal tidak terlalu luas-Hanya bingkai
sebelumnya dari kamera, memungkinkan agen mendeteksi saat dua lampu
merah menyala tepi kendaraan menyala atau mati secara bersamaan. Untuk
tugas mengemudi lainnya seperti berubah jalur, agen perlu melacak di mana
mobil lain jika tidak dapat melihat mereka sekaligus. Dan untuk mengemudi
apa pun menjadi mungkin sama sekali, agen perlu melacak di mana
kuncinya berada.

Memberikan struktur agen refleks berbasis model dengan keadaan internal,


menunjukkan bagaimana persepsi saat ini dikombinasikan dengan keadaan
internal lama untuk menghasilkan update deskripsi keadaan saat ini,
berdasarkan model agen tentang bagaimana dunia bekerja.

3. Agen berbasis tujuan (Goal-Based Agent)


Mengetahui sesuatu tentang kondisi lingkungan saat ini tidak selalu cukup
untuk diputuskan Apa yang harus dilakukan. Misalnya, di persimpangan
jalan, taksi bisa berbelok ke kiri, belok kanan, atau lurus saja di. Keputusan
yang benar tergantung pada tempat taksi mencoba menuju ke sana. Dengan
kata lain, juga Sebagai deskripsi keadaan saat ini, membutuhkan semacam
informasi tujuan yang dijelaskan sesuai situasi yang diinginkan - misalnya,
berada di tujuan penumpang. Agen Program dapat menggabungkan ini
dengan model (informasi yang sama seperti yang digunakan dalam model
berbasis agen refleks) untuk memilih tindakan yang mencapai tujuan.
4. Agen berbasis utilitas (Utility-Based Agent)
Sasaran saja tidak cukup untuk menghasilkan perilaku berkualitas tinggi di
kebanyakan lingkungan. Misalnya, banyak urutan tindakan akan
mendapatkan taksi ke tujuannya (dengan demikian mencapai tujuan) tetapi
beberapa lebih cepat, lebih aman, lebih dapat diandalkan, atau lebih murah
daripada yang lain. Tujuan hanya menyediakan perbedaan biner kasar
antara keadaan "bahagia" dan "tidak bahagia". Performa yang lebih umum
ukuran harus memungkinkan perbandingan negara-negara yang berbeda
sesuai dengan persis bagaimana bahagiamereka akan membuat agen Karena
"senang" tidak terdengar sangat ilmiah, ekonom dan ilmuwan komputer
menggunakan istilah utilitas sebagai gantinya.
Program agen berbasis utilitas muncul, di mana kita merancang agen pembuat
keputusan yang harus menangani ketidakpastian melekat dalam lingkungan
stokastik atau sebagian yang dapat diamati.
Agen Pembelajar (Learning Agent)
Dia memperkirakan berapa banyak pekerjaan yang mungkin dilakukan dan
menyimpulkan "Beberapa metode yang lebih cepat nampaknya diinginkan.
"Metode yang dia usulkan adalah membangun mesin pembelajaran dan
kemudian mengajar mereka. Di banyak wilayah AI, sekarang inilah metode
yang disukai untuk menciptakan state-of-the-art sistem. Belajar memiliki
keuntungan lain, seperti yang telah kita catat sebelumnya: memungkinkan agen
beroperasi pada lingkungan yang awalnya tidak diketahui dan menjadi lebih
kompeten daripada pengetahuan awalnya sendirian memungkinkan. Pada
bagian ini, kita secara singkat mengenalkan gagasan utama dari agen
pembelajaran. Sepanjang buku ini, kami mengomentari peluang dan metode
untuk belajar secara khusus jenis agen jauh lebih jauh ke dalam algoritma
pembelajaran itu sendiri.
Seorang agen pembelajaran dapat dibagi menjadi empat komponen konseptual,
seperti yang ditunjukkan pada Gambar diatas. Perbedaan yang paling penting
adalah antara elemen pembelajaran, yaitu reoperabilitas bertanggung jawab
untuk melakukan perbaikan, dan elemen kinerja, yang bertanggung jawab atas
memilih tindakan eksternal Elemen kinerja adalah apa yang telah kita
pertimbangkan sebelumnya untuk menjadi keseluruhan agen: dibutuhkan dalam
persepsi dan memutuskan tindakan. Unsur belajar menggunakan Masukan dari
kritik tentang bagaimana agen melakukan dan menentukan bagaimana
kinerjanya Elemen harus dimodifikasi agar lebih baik di masa depan.