Anda di halaman 1dari 7

9.1.

Pengantar

Metode learning yang diimplementasikan ke dalam sebuah mesin sudah banyak digunakan.
Tentu, karena hal ini merupakan salah satu cara yang baik untuk membuat mesin mempunyai
sifat cerdas. Dengan beberapa data positif dan negative, pembelajaran diberikan kepada mesin.
Mesin akan belajar apabila ada data testing yang diberikan di mana data tersebut lebih mendekati
pada data positif yang pernah dipelajarinya.

Hasilnya mesin tersebut akan memberikan penilaian kepada data tersebut dengan nilai positif.
Sebaliknya, apabila data testing yang diberikan negative, maka mesin juga akan mengenali
bahwa data tersebut bernilai negatif sesuai dengan yang pernah ada sebelumnya. Learning di
dalam kecerdasan buatan biasanya dituliskan secara simbolis dan menurut pandangan
kebanyakan orang, hal ini merupakan cara yang cukup natural.

Dari semua cara menuliskan representasi hipotesis. Logical formula adalah cara yang paling
baik. Terbatas pada propositional logic, contoh-contoh yang direpresentasikan dengan cara
menunjukkan properti dan nilai mereka. Representasi ini  tidak berbeda dengan pasangan atribut
dan nilai yang sudah pernah dipelajari pada Representasi Pengetahuan.

Learning disini diperoleh dengan mencari konsep pada hirarki yang paling pas untuk data yang
ada. Dua jenis data yang digunakan adalahdata posisitif (data untuk mempelajari konsep yang
benar) dan data negative (kebalikan/lawan dari konsep yang benar). Version space didefenisikan
sebagai sekumpulan dari keseluruhan hipotesis yang konsisten dengan data yang telah
digunakan. Tujuannya adalah untuk mengurangi hipotesis hingga mencapai pada satu konsep
tunggal.

9.2. Strategi Pencarian

Pencarian pada Version Space menggunakan metode pencarian breadth first bidirectional.
General konsep yang konsisten dengan data disimpan pada variable G, sedangkan data yang
lebih spesifik disimpan ke dalam variable S. Data positif digunakan untuk memotong hipotesis
yang lebih general. Jika kumpulan dari data pembelajaran sudah dijalankan dengan benar,
pencarian akan bertemu di satu data.

            G = {hipotesis paling general/umum yang konsisten dengan data}

            S = {hipostesis paling spesifik/khusus yang konsisten dengan data}

Operator generalisasi dan spesialisasi yang memenuhi syarat untuk konsep dari Bahasa
representasi harus dipilih. Adanya data positif memungkinkan untuk melakukan generalisasi
hipotesis yang paling spesifik (misalnya menghapus kondisi). Data negatif memungkinkan untuk
melalukan spesialisasi hipotesis yang paling umum. Himpunan dari S harus merupakan
himpunan bagian dari G. Iustrasinya pada gambar 8.1.
Gambar 8.1. Pencarian pada Hipotesis

Dapat disimpulkan bahwa apabila data di G dimulai dari null hypothesis, karena terlalu umum,
sehingg belum ada data yang masuk. Sebaiknya, S merupakan data training, sehingga semuanya
merupakan data utuh. Dengan version space, kita dapat mempersempit concept space sehingga
menjadi version space seperti pada gambar 8.2.

Gambar 8.2. Konsep Version Space

Pada gambar 8.2 terlihat pada bagian paing atas dari concept space adalah null hypothesis yang
berisi vaiabel tanpa nilai. Pada bagian bawah adalah semua kemungkinan contoh training
example, konsep target terletak pada disuatu tempat pada wilayah version space.
Jika setiap possible description adalah contoh dari konsep yang dimaksudkan, maka null
hypothesis adalah concept definition karena memuat segala jenis nilai. JIka konsep target
memuat hanya satu contoh tunggal, maka satu dari deskripsi pada bagian bawah concept space
adalah concept defenitiion yang diinginkan. Hampir semua konsep target tentunya terletak
diantara dua ekstrim tersebut. Algoritma untuk menuju pada version space disebut algoritma
candidate elimination.

Sebelum mempelajari dan menggunakan algortima tersebut, dimulai dari algoritmadari general
ke spesifik dan sebaliknya yaitu spesifik ke general. Sebenarnya, algoritma candidate elimination
merupakan penggabungan dari kedua algoritma tersebut.

9.3. Algoritma Spesifik ke General

Algoritma ini membuat data yang spesifik berupa data training mendekati ke wilayah version
space, sehingga akan muncul beberapa variabel. Jalannya algoritma mengikuti aturan sebagai
berikut :

1.     Awal algoritma

Inisialisasikan S dengan data training positif yang pertama.

2.     Untuk setiap data training yang positif: P

Jika S tidak cocok dengan P, gantikan S dengan generalisasi paling spesifik yang cocok dengan
P.

3.     Untuk setiap data training yang negative: N

Hapus semua anggota S yang cocok dengan N

Contoh permasalan dan penerapan step by step untuk solusi menggunakan algoritma spesifik ke
general adalah :
Gambar 8.3. Algoritma spesifik ke general

Dapat disimpulkan, apabila terdapat data training negative, maka data tersebut tidak digunakan.
Algoritma spesifik ke general hanya menggunakan data training yang positif.

9.4. Algoritma General ke Spesifik

Sebaliknya, algoritma ini membuat data yang general, yaitu berupa variabel mendekati ke
wilayah version space, sehingga akan muncul beberapa nilai dari variabel tersebut.

Jalannya algoritma mengikuti aturan sebagai berikut :

1.     Awal algoritma

Inisialisasikan G untuk memuat konsep yang paling general di dalam space

2.     Untuk setiap data training yang negatif: N

Untuk setiap G yang cocok dengan N, gantikan G dengan spesialisasi paling general yang tidak
cocok dengan N.

3.     Untuk setiap data training yang positif: P

Hapus dari G semua hipotesis yang gagal untuk cocok dengan P.

Contoh permasalan dan penerapan step by step untuk solusi menggunakan algoritma general ke
spesifik adalah :
Gambar 8.4. Algoritma general ke spesifik

Berbeda dengan algoritma spesifik ke general, untuk algoritma general ke spesifik semua data
training positif dan negative digunakan untuk mencapai nilai version space.

9.5. Algoritma Candidate Elimination

Algoritma candidate elimination menggabungkan kedua algoritma diatas, spesifik ke general dan
general ke spesifik. Data yang diberikan adalah sekumpulan contoh data training positif dan
negatif. Bagian dihitung adalah concept description yang konsisten dengan semua data positif
dan tidak satupun data yang cocok dengan data negatif. Jalannya algoritma mengikuti aturan
sebagai berikut :

1.   Awal algoritma untuk G:

      Inisialisasikan G untuk memuat satu element: null description.

2.   Awal algoritma untuk S:

      Inisialisasikan S untuk memuat satu element: satu contoh data positif.

3.   Pada saat menerima data training:


 Jika merupakan data positif:

Hapuskan semua deskripsi G yang tidak mengcover data traing. kemudia update nilai S untuk
memuat data deskrpsi yang paling spesifik dalam version space yang mengcover data training
dan element terakhir pada data S.

Secara ringkas, lakukan generalisasi elemen-elemen dalam S sekecil mungkin sehingga mereka
mengcover data training yang baru.

 Jika merupakan data negatif:

Hapuskan dari S semua deskripsi yang mengcover data training. Kemudian, update data G untuk
membuat kumpulan deskripsi yang paling general didalam version space yang tidak mengcover
data training.

Secara ringkas, spesialisasikan elemen dari G sekecil mungkin sehingga data training negatif
tidak lagi tercover oleh elemen G

 Jika S dan G kedua-duanya adalah singleton set :

o   Jika keduanya identik, maka dapat disimpulkan bahwa itulah goal-conceptnya. Cetak nilai
mereka dan algoritma selesai.

o   Jika keduanya berbeda, maka dapat disimpulkan bahwa data training tidak konsisten. Cetak
nilai mereka dan algoritma selesai. Jika data belum habis, maka kembali lagi kelangkah ke-3. 

Contoh permasalan dan penerapan step by step untuk solusi menggunakan algoritma candidate
elomination adalah :
Gambar 8.5. Algoritma candidate elimination

Evaluasi dari Algoritma Candidate elimination :

1.     Pencarian yang lengkap membutuhkan terlalu banyak biaya.

2.     Improvement yang dapat dilakukan adalah :

·      Gunakan hypothesis space yang lebih sederhana

·      Gunakan heuristic untuk melakukan prining konsep dari G dan S

3.    Tidak ada toleransi terhadap data training  yang salah(noise)

Anda mungkin juga menyukai