Anda di halaman 1dari 36

KECERDASAN BUATAN

LEARNING
LEARNING

“knowledge Adaptation
infusion ?”

Learning
Performance Autonomy
LEARNING Agent Model
Performance
Standard

Sensors
Critic

Feedback
Changes
Learning Element Performance Element
Knowledge
Learning
Goals
Problem Generator

Agent Effectors

Environment
LEARNING Element
• Bertanggungjawab untuk melakukan perkembangan
• Menggunakan knowledge dan feedback thd aksi untuk
meningkatkan kinerja
• Komponen dari performance elemen yang dipelajari
• Feedback yang tersedia digunakan untuk mempelajari
komponen tersebut
Performance Element

• Pilih eksternal aksi


• Kumpulkan percept, diputuskan saat aksi
• Digunakan sebagai bagian aspek desain agen
sebelumnya
Critic
 Menyampaikan learning elemen tentang performa aksi
 Harus menggunakan standar baku performansi
• should be from the outside
• Sebuah standar internal yang dapat dimodifikasi untuk
meningkatkan performa
Kadang-kadang menggunakan manusia untuk
membenarkan atau meragukan performa yang rendah
Problem Generator

 Memberi saran aksi yang dapat mengarah pada


pengalaman baru
 Dapat mengarahkan ke beberapa keputusan yg sub-
optimal dalam jangka pendek
• Untuk jangka panjang, berharap aksi yang lebih
baik akan ditemukan
LEARNING

Proses melalui beberapa pengalaman (E) dalam


melakukan beberapa tugas (T) sehingga
meningkatkan performa (P)

E : Experience, T : Class of Tasks, P : Performance Measure


Contoh LEARNING

KRITERIA KETERANGAN
Kasus Permainan Catur
Task (T) Bermain Catur
Performance Measure (P) Persentase kemenangan
melawan musuh
Training Experience (E) Berlatih dengan diri sendiri
Contoh LEARNING
KRITERIA KETERANGAN
Kasus Pengenalan Tulisan Tangan
Task (T) Mengenali dan
mengklasifikasi kata-kata
dalam tulisan
Performance Measure (P) Persentase kata-kata yang
berhasil diklasifikasi
Training Experience (E) Data-data tulisan tangan
dengan kelasnya masing-
masing (given classifications)
LEARNING
- Tidak semua kemungkinan situasi dapat didefinisikan
contoh : peta labirin
- Tidak semua perubahan dapat diantisipasi
contoh : perubahan pola permintaan barang,
bahasa alay
- Ada beberapa tugas yang sulit dibuat aturannya
contoh : mengenali wajah
Faktor Faktor
UtamaLEARNING
Pembelajaran
- KOMPONEN :
Komponen mana yang akan ditingkatkan
- PENGETAHUAN AWAL (prior knowledge) :
Apa pengetahuan awal yang sudah dimiliki agent
- REPRESENTASI DATA & KOMPONEN:
Bagaimana representasi yang digunakan
- UMPAN BALIK (feedback) :
Apa feedback yang dapat dipelajari
Representasi Data

LEARNING
?
Continuous /
Vector Discrete
Values
Feed Back
- SUPERVISED
belajar dari pasangan input-output (contekan)
- UNSUPERVISED
belajar tanpa pasangan input-output
- SEMI-SUPERVISED
Gabungan SUPERVISED dan UNSUPERVISED
(biasanya karena banyak noise atau kurangnya data)
- REINFORCEMENT
belajar dari efek suatu tindakan, yang berupa
hadiah (reward) dan hukuman (punishment)
TYPE LEARNING
Learning from experience (pengalaman)

• Mengingat persepsi, kondisi dan aksi yang lalu


• Generalisasi  identifikasi pengalaman yang serupa

Forecasting (peramalan)
• Perkiraan perubahan dalam lingkungan

Theories (Rule Based)

• Generasi model kompleks berdasarkan pengamatan dan


penalaran
Type of Feedback

Supervised learning
• Jawaban benar untuk tiap contoh

Unsupervised learning
• Jawaban yang benar tidak diberikan

Reinforcement learning
• Hadiah / Hukuman
Supervised Learning

Mencari suatu fungsi yang sesuai dengan contoh dari


himpunan sample
• Data training
• Classification
• Backpropagation
Supervised Learning Model
Unsupervised Learning

• Belajar dari pola yang tidak berkaitan dengan


nilai output
• clustering
Unsupervised Learning
Clustering
• Tidak perlu melatih metoda tersebut atau dengan kata lain,
tidak ada fase learning.
• Mengelompokkan obyek-obyek data hanya berdasarkan
pada informasi yang terdapat pada data, yang menjelaskan
obyek dan relasinya
Inter-cluster
Intra-cluster distances are
distances are maximized
minimized
Reinforcement Learning
• Output tidak diketahui secara pasti untuk suatu
input, tapi menerima feedback
• Feedback : entitas luar, lingkungan, atau agent itu sendiri.
• Feedback mungkin tertunda, dan tidak mengikuti masing-
masing aksi secara langsung.
Reinforcement Learning Framework

Environment

evaluation

State Action
Agent

• Belajar dari interaksi terdekat


• Stochastic environment
Algoritme Learning
Algoritme Learning
- DECISION TREE
- K NEAREST NEIGHBOUR
- NEURAL NETWORK
- SVM (SUPPORT VECTOR MACHINE)
Decision Tree
NEAREST NEIGHBOUR
NEURAL NETWORK
SVM (Support Vector Machine)
SVM (Support Vector Machine)
Contoh Kasus Learning
Klasifkasi Laporan Tugas Akhir


Data Latih
Abstrak 1 Abstrak 2 Abstrak 3 Abstrak 10

A A B B

TRAINING A
Abstrak 11 Abstrak 11

TESTING B
Abstrak 12 Abstrak 12

Data Uji A
Abstrak 13 Abstrak 13
Pengenalan Tulisan Tangan
REFERENSI . . .

Russell, S., Norvig, P. Artificial Intelligence A Modern


Approach (Third Edition). 2010. Pearson Education,
USA.

Mitchell, T. M., Machine Learning. 1997. The McGraw-


Hill Companies,Inc.
Tugas
• Cari Pseudocode dari algoritme dibawah
1. DECISION TREE
2. NEURAL NETWORK
3. DBSCAN

Analisis dan jelaskan Pseudocode dari algoritme di atas perbaris (* jadi


ada 3 Tabel untuk setiap Algoritme)
Contoh Tabel

No / Baris PseudoCode Pseudocode Penjelasan

Anda mungkin juga menyukai