Anda di halaman 1dari 12

MODUL PERKULIAHAN

Pengantar
Kecerdasan
Buatan
Intelligent Agents

Fakultas Program Studi Tatap Muka Kode MK Dosen pengampu

2
Fasilkom Teknik Informatika Giri Purnama, S.Pd, M.Kom

Abstract Kompetensi
Module ini mambahas mengenai Mampu memahami konsep mengenai
Intelliget Agents
tipe-tipe Agen terhadap lingkunganya
 Pendahuluam
Agent dapat dipandang sebagai sebuah objek yang mempunyai tujuan dan bersifat
autonomous (memberdayakan resourcenya sendiri) untuk memecahkan masalah melalui
interaksi seperti kolaborasi, kompetisi, negosiasi dan sebagainya (Okomoto & Takaoka,
1997). Agent sendiri adalah sesuatu yang seolah-olah merasakan sesuatu dari
lingkungannya melalui sensor dan memberikan aksi balasan kepada lingkungan tersebut
melalui sensor dan memberikan aksi balasan kepada lingkungan tersebut melalui effector
(Russel & Norvig, 1995). Adapun multi agent merupakan kumpulan dari beberapa agent
yang berada pada lingkungan yang sama.

Agen adalah sesuatu yang memahami lingkungannya melalui sensor, dan bertindak
terhadap lingkungannya melalui actuator. Secara sederhana diilustrasikan pada gambar
berikut:

Gambar 1.1. Konsep Agen

Agen manusia memiliki mata, telinga, kulit, dan organ-organ lain sebagai sensor serta
kedua tangan, kedua kaki, saluran suara, dan lain-lain sebagai actuator. Agen robot
mungkin memiliki kamera dan infra merah sebagai sensor, serta berbagai motor sebagai
aktuator. Agen perangkat lunak (software) menerima input dari keyboard, file konten, dan
paket jaringan sebagai input sensorik, tindakan (actuator) terhadap lingkungannya berupa
tampilan di layar monitor, menulis file, dan mengirim paket jaringan.

Percept adalah istilah merujuk pada masukkan (persepi) agen pada saat tertentu. Urutan
persepsi (percept sequence) adalah sejarah lengkap dari semua yang pernah dirasakan/
diterima oleh agen. Umumnya agen memilih aksi/ tindakan pada waktu tertentu tergantung
dari keseluruhan persepsi yang diamatinya selama waktu tertentu. Secara matematis, kita
dapat katakan bahwa perilaku agen digambarkan oleh fungsi agen yang memetakan urutan
persepsi (percept sequence) tertentu ke dalam sebuah tindakan.

Fungsi agen pada sebuah agen akan diimplementasikan oleh program agen. Fungsi agen
dan program agen adalah sesuatu hal yang berbeda. Fungsi agen adalah deskripsi
matematis yang abstrak mengenai agen, sedangkan program agen adalah implementasi
yang konkret yang berjalan di sistem fisik.

Untuk mengilustrasikan ide ini, kita ambil contoh yang sangat sederhana yaitu dunia
penyedot debu (vacuum cleaner world) yang ditunjukkan pada gambar 1.2. Dunia ini sangat
sederhana sehingga kita dapat menggambarkan segala sesuatu yang terjadi, ini juga
merupakan dunia buatan, sehingga kita bisa menciptakan banyak variasi. Dunia khusus ini,

‘0 Kecerdasan Buatan
1 2 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
hanya memiliki dua lokasi yaitu kotak A dan B. Agen vacuum akan mengamati kotak apa
yang dia tempati dan apakah ada kotoran atau tidak. Agen dapat memilih untuk berpindah
ke kiri, ke kanan, menyedot kotoran, atau tidak melakukan apapun. Salah satu fungsi agen
yang paling sederhana adalah sebagai berikut:

 Jika kotak saat ini kotor, maka vacuum akan meghisap;


 Jika tidak, maka pindah ke kotak lain.

Gambar 1.2. Vacuum Cleaner World

Tabel fungsi agen dapat dilihat pada gambar 1.3 dan program agen yang
menerapkannya diperlihatkan pada gambar 1.8.

Tabel 1.3. Fungsi agen sederhana untuk vacuum cleaner world pada gambar 1.2

Berikut ini adalah istilah-istilah penting dari konsep agen:

 Percept (Sensors): masukan “indera” si agent. Dengan kata lain: input.


 Percept sequence: sejarah input si agent.
 Action (Actuators): tindakan yang dilakukan oleh si agent. Dengan kata lain: output.
 Environment: lingkungan di mana si agent berada.

Perilaku yang baik: Konsep dari Rasionalitas


Rational Agent adalah agen yang melakukan hal yang benar, secara konseptual artinya
setiap masukkan tabel pada fungsi agen diisi dengan benar. Sudah jelas sekali bahwa
melakukan hal yang benar adalah lebih baik daripada melakukan hal yang salah, namun
apa maksudnya melakukan hal yang benar?

‘0 Kecerdasan Buatan
1 3 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Rational artinya disini melakukan hal yang terbaik. Terbaik artinya mencapai target yang
ingin dicapai, sehingga perlu didefenisikan target yang ingin dicapai oleh si agent. Untuk
mengukur seberapa baik kinerja dari agen dalam mencapai target diperlukan Performance
measure.

Contoh:

Rational agent: suatu agent yang selalu bertindak memaksimalkan ukuran kinerja,
berdasarkan apa yang ia amati tentang lingkungan (sejarah input) dan pengetahuan lain
yang dimilikinya [2].

Rational tidak berarti sempurna: ada aspek lingkungan yang tidak diketahui, di luar kendali.
Terkadang agent bertindak (action) tanpa pengetahuan lingkungan  exploration, learning,
autonomy [2].

‘0 Kecerdasan Buatan
1 4 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Task Environment
Mendefenisikan task environment

Ketika merancang sebuah agent, kita harus mendefenisikan lingkungan masalah (task
environment), pada dasarnya task environment adalah “masalah” dan agen rasional adalah
“solusi”. Terdapat empat hal yang dapat mendefenisikan task environment yaitu:
 Performance (measure): apa ukuran pencapaian tujuan si agent?
 Environment: di manakah si agent berperan?
 Actuators: apa saja yang bisa dilakukan si agent?
 Sensors: apa saja yang menjadi input si agent?

Misalnya kita ingin membuat agen taksi otonom yang menerima penumpang dan
mengantarkannya ke tujuan. Maka task environment-nya sebagai berikut:
 Performance: Penumpang sampai ke tujuan dengan selamat, cepat, aman, nyaman,
tidak ditilang, tidak nabrak, hemat bensin.
 Environment: Jalanan, lalu-lintas, rambu lalu-lintas, penumpang, pejalan kaki, cuaca
 Actuators: Stir, gas, rem, klakson, lampu sein kiri-kanan, layar display, suara sintetis.
 Sensors: kamera, infra-red, sensor sonar, speedometer, accelerometer, odometer,
sensor mesin, GPS, keyboard, microphone

Gambar 3.1. Deskripsi PEAS lingkungan tugas untuk agen taksi online.

Contoh lain, bayangkan sebuah robot yang mengamati komponen pada ban berjalan, lalu
memisahkan mana ban yang bermutu tinggi dan mana yang jelek atau cacat ke dalam dua
kotak.
 Performance: presentase komponen masuk ke kotak yang benar
 Environment: ban berjalan, komponen yang diuji, kotak-kotak
 Actuators: gerak lengan robotik
 Sensors: kamera, sensor fisik

‘0 Kecerdasan Buatan
1 5 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Gambar 3.2. Contoh deskripsi PEAS untuk tipe-tipe agen lain

Jenis task environment

 Fully-observable vs Partially-observable: semua info relevan diketahui?


Jika sensor-sensor pada agen dapat memberikan informasi yang lengkap mengenai
keadaan lingkungan yang terjadi maka dapat dikatakan bahwa task environment
tersebut fully-observable. Sebuah task environment dapat dikatakan partially
observable jika sensor-sensor yang digunakan kurang lengkap, atau kurang akurat,
atau malah noisy. Contohnya agen vacuum cleaner memiliki sensor yang hanya
dapat mendeteksi debu/ kotoran pada satu kotak saja, sedangkan kotoran di kotak
lain tidak dapat dideteksi.
Jika agen tidak memiliki sensor sama sekali maka lingkungan menjadi tidak teramati
sehingga task environment tersebut bersifat unobservable.

 Single agent vs. multiagent: apakah ada interaksi (kooperatif/kompetitif) dengan


agen lainnya? Membedakan antara single agent dan multi agent sangatlah mudah.
Contohnya, sebuah agen yang memecahkan teka-teki silang dengan sendiri jelas
berada dalam lingkungan single agent, sedangkan agen yang bermain catur berada
pada lingkungan dua agent.

 Deterministic vs. stochastic: next state = current state + action?


Jika keadaan berikutnya dari suatu environment benar-benar ditentukan oleh
keadaan saat ini ditambah dengan tindakan dari agen, maka dapat dikatakan bahwa
task environment adalah deterministic, jika tidak maka stochastic. Jika lingkungan

‘0 Kecerdasan Buatan
1 6 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
dapat diamati sebagian (partially observable) maka dikatakan task environment
stochastic. Situasi lingkungan yang sangat kompleks sehingga tidak memungkinkan
semua aspek dapat teramati maka lingkungan ini dianggap sebagai stochastic.
Contohnya pengemudi taksi otonom dapat dikatan stochastic, karena kita tidak dapat
memprediksi keadaan lalu-lintas dengan tepat, bisa jadi tiba-tiba ada kecelakaan di
jalan, ban bocor, atau mesin yang mogok tiba-tiba.

 Episodic vs. sequential: apakah tergantung sejarah?


Pada task environment episodik, pengalaman agen dibagi menjadi episode-episode
atomic. Di setiap episode agen menerima persepsi dan kemudian melakukan
tindakan, episode selanjutnya tidak tergantung dari episode sebelumnya. Contoh
lingkungan episodik misalnya agen yang harus menemukan bagian yang cacat pada
jalur perakitan mendasarkan keputusan saat ini, terlepas dari keputusan-keputusan
sebelumnya. Sehingga keputusan saat ini tidak mempengaruhi keputusan yang akan
datang. Sedangkan pada lingkungan sekuensial, keputusan saat ini akan
mempengaruhi semua keputusan di masa depan. Contohnya agen pemain catur dan
agen taksi otonom adalah dimana lingkungan bersifat sekuensial. Pada dua kasus
tersebut, tindakan jangka pendek dapat memiliki konsekuensi jangka panjang.

Secara umum lingkungan episodik lebih sederhana daripada lingkungan sekuensial


karena agen tidak perlu berpikir ke depan.

 Static vs. dynamic: environment berubah selama agent belum bertindak?


Jika lingkungan bisa berubah selama agen belum bertindak maka dapat dikatakan
lingkungan tersebut bersifat dinamis, sedangkan jika tidak berubah maka disebut
statis. Lingkungan statis mudah ditangani karena agen tidak perlu terus mengamati
lingkungan saat sedang melakukan tindakan, juga tidak perlu memperdulikan
berlalunya waktu. Di sisi lain lingkungan dinamis terus-meneurs bertanya kepada
agen apa yang akan dilakukannya, jika belum diputuskan artinya tidak melakukan
apapun. Jika lingkungan tidak berubah seiring berjalannya waktu sedangkan skor
kinerja agen berubah, maka dapat dikatakan lingkungan bersifat semi-dinamis.
Contohnya lingkungan taksi otonom jelas dinamis, karena mobil-mobil lain terus
bergerak, sementara algoritma penggerak mesin memutuskan apa yang akan
dilakukan selanjutnya. Lingkungan agen catur (apabila bermain dengan waktu)
bersifat semi-dinamis, sedangkan agen teka-teki silang bersifat statis.

 Discrete vs. continuous: bisa terhadap sifat state, percept, action


Perbedaan diskrit / kontinyu berlaku untuk keadaan lingkungan, persepsi dan
tindakan agen.
Contohnya lingkungan agen catur bersifat diskrit karena memiliki sejumah keadaan
yang berbeda-beda (tidak dipengaruhi oleh waktu), catur juga memiliki seperangkat
persepsi dan tindakan sendiri. Sedangkan mengemudi taksi otonom adalah masalah
yang terus-menerus, kecepatan dan lokasi taksi dan kendaraan lainnya memiliki nilai
kontinu dari waktu ke waktu. Tindakan pengemudi taksi juga kontinu (sudut kemudi,
dll). Masukkan dari kamera bersifat diskrit, namun biasanya diperlakukan sebagai
intensitas dan lokasi yang terus berubah.

‘0 Kecerdasan Buatan
1 7 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Gambar 3.3. contoh agen berserta jenis lingkungannya

Tentunya, dunia nyata kita partially-observable, stochastic, sequential, dynamic, continuous,


dan multiagent!

Struktur Agen
Pekerjaan AI adalah merancang sebuah program agen yang mengimplementasikan
fungsi agen (pemetaan dari persepi ke tindakan). Kita asumsikan program ini akan
dijalankan pada beberapa peralatan komputer yang memiliki sensor fisik dan
aktuator (kita katakan ini sebagai arsitektur).
Agen = architecture + program.
Tentunya program yang kita pilih harus sesuai dengan arsitkturnya, jika program
akan merekomendasiak tindakan seperti berjalan, maka arsitektur sebaiknya
memiliki kaki. Arsitektur mungkin hanya PC biasa, atau mungkin sebuah mobil robot
dengan beberapa komputer, kamera, dan sensor lainnya. Secara umum, arsitektur
membuat persepsi dari sensor tersedia pada program, kemudian menjalanlan
program, dan memberikan keluaran berupa tindakan apa yang dipilih untuk
dijalankan oleh aktuator.

‘0 Kecerdasan Buatan
1 8 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Agent program

Contoh program agen vacuum cleaner world berikut:

Definisi Task Environment:

 Performance: ruangan A dan B selalu bersih


 Environment: ruangan A dan B beserta isi debunya
 Actuators: DoKeKiri; DoKeKanan; DoSedot; DoSantai
 Sensors: lokasi dan status (kebersihan), mis: [A; Kotor ]
 Contoh percept sequence:
o <[A; Kotor ], [A; Bersih], [B; Kotor ], [B; Bersih], …>
o <[A; Kotor ], [A; Kotor ], [A; Kotor ], [A; Bersih], …>

Contoh Agent Function Rajin:

Agent function AgenRajinTM


f (<…, [*, Kotor ]>)  DoSedot
f (<…, [A, Bersih]>)  DoKeKanan
f (<…, [B; Bersih]>)  DoKeKiri

Agent program AgenRajinTM


function AgenRajin ([lokasi,status]) returns action
if status = kotor then return DoSedot
else if lokasi = A then return DoKeKanan
else return DoKeKiri

Agent program AgenMalasTM


function AgenMalas ([lokasi,status]) returns action
if status = kotor then return DoSedot
else if random(1,0) ≤ 0.8 then return DoSantai
else if lokasi = A then return DoKeKanan
else return DoKeKiri

Mana yang lebih rational, AgenRajinTM atau AgenMalasTM?

‘0 Kecerdasan Buatan
1 9 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Tergantung dari:

 Performance: Apa hemat energi bagian dari performance measure dalam mencapai
goal “menjaga kebersihan"?
 Environment: Apakah ruangan yang sudah dibersihkan bisa kotor lagi? Seberapa
cepat/sering? [2]

Jenis-jenis Agent

 Simple reflex agents: hanya berdasarkan percept terakhir. (gambar 2.1)


 Model-based reflex agents: memiliki representasi internal mengenai keadaan
lingkungan. (gambar 2.2)
 Goal-based agents: memiliki informasi mengenai tujuan, memilih tindakan yang
mencapai tujuan. (gambar 2.3)
 Utility-based agents: melakukan penilaian kuantitatif terhadap suatu keadaan
lingkungan ! utility function. Berkaitan dengan performance measure. (gambar 2.4)
 Learning agents: belajar dari pengalaman, meningkatkan kinerja. (gambar 2.5) [2]

Gambar 2.1. Simple-reflex Agent

Gambar 2.2. Model-based Agent

‘0 Kecerdasan Buatan
1 10 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Gambar 2.3. Goal-based Agent

Gambar 2.4. Utility-based Agent

Gambar 2.5. Learning-based Agent

‘0 Kecerdasan Buatan
1 11 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id
Daftar Pustaka
[1]. Stuart Russell & Peter Norvig, Artificial Intelligence: A Modern Approach.3rd Edition.
Prentice Hall 2010
[2]. Slide Kuliah Sistem Cerdas: Konsep Rational Agent. oleh Ruli Manurung, Ari
Saptawijaya, dan Nurul Qomariyah. Fakultas Ilmu Komputer Universitas Indonesia
[3]. Anita Desiani & M.Arhami, Konsep Kecerdasan Buatan, Penerbit Andi, 2006.

‘0 Kecerdasan Buatan
1 12 Pusat Bahan Ajar dan eLearning
http://www.mercubuana.ac.id

Anda mungkin juga menyukai