Tugas PM H13114323
Tugas PM H13114323
PEMBELAJARAN MESIN
OLEH :
TITIYANTI RANTEPASANG
(H131 14 323)
ii
KELOMPOK 1 : Algoritma Apriori, FP-Growth dan FP-Tree
A. Algoritma Apriori
Algoritma Apriori adalah salah satu algoritma yang melakukan pencarian frequent
itemset dengan menggunakan teknik association rule. Algoritma Apriori menggunakan
pengetahuan frekuensi atribut yang telah diketahui sebelumnya untuk memproses informasi
selanjutnya.
Pada algoritma Apriori menentukan kandidat yang mungkin muncul dengan cara
memperhatikan minimum support dan minimum confidence.
Sedangkan cara kerja dari Algoritma Apriori sendiri terbagi dari beberapa tahap yang
disebut iterasi. Tahapan-tahapan tersebut antara lain adalah :
Kandidat k-itemset dibentuk dari kombinasi (k-1)-itemset yang didapat dari iterasi
sebelumnya. Satu ciri dari algoritma Apriori adalah adanya pemangkasan kandidat
k-itemset yang subsetnya yang berisi k-1 item tidak termasuk dalam pola frekuensi
tinggi dengan panjang k-1.
2. Perhitungan Support dari Tiap Kandidat K-itemset
Support dari tiap kandidat k-itemset didapat dengan menscan database untuk
menghitung jumlah transaksi yang memuat semua item di dalam kandidat k-itemset
tersebut. Ini juga merupakan ciri dari algoritma apriori dimana diperlukan
perhitungan dengan scan seluruh database sebanyak k-itemset terpanjang.
3. Tetapkan Pola Frekuensi Tinggi
Pola frekuensi tinggi yang memuat k item atau k-itemset ditetapkan dari kandidat k-
itemset yang supportnya lebih besar dari minimum support.
Bila tidak didapat pola frekuensi tinggi maka seluruh proses dihentikan. Bila tidak,
maka k tambah satu dan kembali ke bagian 1.
B. Algoritma FP-Growth
FP-Growth merupakan sebuah algoritma yang ditunjukkan untuk menemukan frequent
itemset (kombinasi item yang sering muncul) pada sebuah database.Algoritma FP-growth
bekerja dalam 2 tahap yaitu pembentukan FP-Tree dan Penentuan frequent itemset.
iii
Algoritma FP-growth bekerja dalam 2 tahap yaitu pembentukan FP-tree dan Penentuan
frequent itemset.
1. Pembentukan FP Tree
Pembentukan FP-tree merupakan langkah awal dan terpenting dari algoritma FP-
growth.Hal ini disebabkan penentuan dari frequent pattern item dari sebuah
database sangat bergantung terhadap FP-tree yang terbentuk dari database tersebut.
C. Pembentukan FP-Tree
a. Menentukan Minimun Support Count
Misalkan untuk kasus ini minimum support count yang dipilih adalah tiga.
iv
KELOMPOK 2: ALGORITMA C4.5 DAN PAGERANK
A. Algortima C4.5
Ada tiga prinsip kerja algoritma C4.5 pada tahap belajar dari data, yaitu sebgai berikut :
1. Pembuatan Pohon Keputusan
Obyektif dari algoritma pohon keputusan adalah mengkonstruksi struktur data pohon
(dinamakan pohon keputusan) yang dapat digunakan untuk memprediksi kelas dari
sebuah kasus atau record baru yang belum memiliki kelas. Algoritma ini memilih
pemecahan kasus-kasus yang terbaik dengan menghitung dan membandingkan gain ratio,
kemudian pada node-node yang terbentuk di level berikutnya. Demikian seterusnya
sampai terbentuk daun- daun.
2. Pemangkasan Pohon Keputusan dan Evaluasi (Opsional)
Karena pohon yang dikonstruksi dapat berukuran besar dan tidak mudah dibaca, C4.5
dapat menyederhanakan pohon dengan melakukan pemangkasan berdasarkan nilai tingkat
kepercayaan (confidence level). Selain untuk pengurangan ukuran pohon, pemangkasan
juga bertujuan untuk mengurangi tingkat kesalahan prediksi pada kasus (rekord) baru.
3. Pembuatan Aturan-Aturan dari Pohon Keputusan (Opsional)
Aturan-aturan dalam bentuk if-then diturunkan dari pohon keputusan dengan melakukan
penelusuran dari akar sampai ke daun. Setiap node dan syarat pencabangannya akan
diberikan di if, sedangkan nilai pada daun akan menjadi ditulis di then. Setelah semua
aturan dibuat, maka aturan akan disederhanakan (digabung atau diperumum).
Langkah 1: Pohon dimulai dengan sebuah simpul yang mereperesentasikan sampel data
pelatihan yaitu dengan membuat simpul akar.
Langkah 2 : Jika semua sampel berada dalam kelas yang sama, maka simpul ini menjadi
daun dan dilabeli menjadi kelas. Jika tidak, gain ratio akan digunakan untuk
memilih atribut split, yaitu atribut yang terbaik dalam memisahkan data
sampel menjadi kelas-kelas individu.
Langkah 3 : Cabang akan dibuat untuk setiap nilai pada atribut dan data sampel akan
dipartisi lagi.
v
Langkah 4 : Algoritma ini menggunakan proses rekursif untuk membentuk pohon
keputusan pada setiap data partisi. Jika sebuah atribut sduah digunakan
disebuah simpul, maka atribut ini tidak akan digunakan lagi di simpul anak-
anaknya.
Langkah 5 : Proses ini berhenti jika dicapai kondisi seperti berikut :
- Semua sampel pada simpul berada di dalam satu kelas
- Tidak ada atribut lainnya yang dapat digunakan untuk mempartisi sampel
lebih lanjut. Dalam hal ini akan diterapkan suara terbanyak. Ini berarti
mengubah sebuah simpul menjadi daun dan melabelinya dnegan kelas
pada suara terbanyak.
B. Algoritma PageRank
1. Sebuah hyperlink dari halaman menunjuk ke halaman lain adalah alat angkut implisit
yang memiliki otoritas ke halaman target.
2. Sebuah halaman dengan tinggi skor prestasi yang menunjuk ke i adalah lebih penting
daripada halaman dengan skor prestasi lebih rendah menunjuk ke i.
vi
menunjuk ke halaman lain.
Dari pendekatan yang sudah dijelaskan sebelumnya mengenai konsep Pagerank,
algoritma Pagerank dapat dirumuskan seperti di bawah ini :
Algoritma awal:
PR(A) = (1-d) + d ( ( PR(T1) / C(T1) ) +
… + ( PR(Tn) / C(Tn) ) )
Salah satu algoritma lain yang dipublikasikan
PR(A) = (1-d) / N + d ( ( PR(T1) / C(T1) )
+ … + ( PR(Tn) / C(Tn) ) )
vii
KELOMPOK 3 : K-MEANS,K-NN,K-MEDOID
A. K-MEANS
K-Means merupakan salah satu metode data clustering non hirarki yang berusaha
mempartisi data yang ada ke dalam bentuk satu atau lebih cluster/kelompok. Metode ini
mempartisi data ke dalam cluster/kelompok sehingga data yang memiliki karakteristik yang
sama dikelompokkan ke dalam satu cluster yang sama dan data yang mempunyai
karakteristik yang berbeda dikelompokkan ke dalam kelompok yang lain. Adapun tujuan dari
data clustering ini adalah untuk meminimalisasikan objective function yang diset dalam
proses clustering, yang pada umumnya berusaha meminimalisasikan variasi di dalam suatu
cluster dan memaksimalisasikan variasi antar cluster.
Algoritma K- Means
viii
B. K-NN
Algoritma K-NN
ix
2. Menghitung kuadrat jarak eucliden objek terhadap data training yang diberikan.
3. Mengurutkan hasil no 2 secara ascending.
4. Mengumpulkan kategori Y (Klasifikasi nearest neighbor berdasarkan nilai k)
5. Dengan menggunakan kategori nearest neighbor yang paling mayoritas maka dapat
dipredisikan kategori objek.
C. K-MEDOID
Algoritma k-medoids adalah pengelompokan algoritma yang berhubungan dengan
algoritma k-means dan algoritma medoidshift. Kedua algoritma k-means dan k-medoids yang
partitional (melanggar dataset ke dalam kelompok) dan kedua upaya untuk meminimalkan
jarak antara titik berlabel berada dalam cluster dan titik yang ditunjuk sebagai pusat klaster
itu. Berbeda dengan algoritma k -means, k -medoids memilih datapoints sebagai pusat
(medoids atau eksemplar) dan bekerja dengan matriks sewenang-wenang dari jarak antara
datapoints bukan l2. Metode ini diusulkan pada tahun 1987 untuk pekerjaan dengan l1
normal dan jarak lainnya. Sebuah medoid dapat didefinisikan sebagai objek cluster yang rata-
rata perbedaan untuk semua objek dalam cluster minimal. yaitu merupakan titik paling
berlokasi di cluster.
Algoritma K- Medoid
1. Inisialisasi: memilih objek k secara acak yang akan berfungsi sebagai medoids.
2. Mengasosiasikan setiap titik data dengan medoid yang paling serupa dengan
3. Secara acak memilih objek k baru yang akan berfungsi sebagai medoid dan
5. Jika biaya yang baru lebih besar dari pada biaya lama kemudian hentikan
algoritma tersebut.
6. Ulangi langkah kedua hingga kelima sampai tidak ada perubahan dalam medoid.
x
1. Data cluster yang dipilih dari K-means dipilih secara random sedangkan pada k-
Medoid cluster yang dipilih hanya object pada data.
2. Perpindahn centeroid pada K-Means dilakukan melalui rata – rata dari setiap
anggota centeroid, sedangkan pada K – Medoid perpindahan centeroid terjadi ketika
ada centeroid baru yang memiliki cost distance lebih murah.
xi
RESUME KELOMPOK 4 : JARINGAN SARAF TIRUAN
HOPFIELD DAN SOM
1. Pengertian Jaringan Saraf Tiruan
Jaringan saraf tiruan adalah suatu sistem pemrosesan informasi yang cara kerjanya
memiliki kesamaan tertentu dengan jaringan saraf biologis. Jaringan saraf tiruan
dikembangkan sebagai model matematis dari saraf biologis dengan berdasarkan asumsi
bahwa:
1. Pemrosesan terjadi pada elemen-elemen sederhana yang disebut neuron.
2. Sinyal dilewatkan antar neuron melalui penghubung.
3. Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah
sinyal
4. Untuk menentukan output, setiap neuron menggunakan fungsi aktivasi (biasanya
bukan fungsi linier) yang dikenakan pada jumlahan input yang diterima.
5. Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang.
Jaringan saraf dapat digolongkan menjadi berbagai jenis berdasarkan pada arsitekturnya,
yaitu :
xii
2.5. Fungsi Aktifasi Jaringan Saraf Tiruan
Mengaktifkan jaringan saraf tiruan berarti mengkatifkan setiap neuron yang dipakai
pada jaringan tersebut. Banyak fungsi yang dapat dipakai sebagai pengaktif, seperti fungsi-
fungsi goniometri dan hiperboliknya, fungsi unit step, impulse, sigmoid, dan lain sebagainya
seperti pada gambar 10, tetapi yang lazim digunakan adalah fungsi sigmoid, karena dianggap
lebih mendekati kinerja sinyal pada otak manusia
2.4. Jaringan Saraf Tiruan Hopfield
Metoda ini dikembangkan oleh John Hopfield pada tahun 1980. Cara pemahaman
paling mudah JST Hopfield bila dinyatakan sebagai sebuah memori asosiatip (associative
memory) yang gambaran umumnya adalah sebagai berikut:
Bila ada sebuah JST yang terbentuk dari N X N neuron dimana N adalah jumlah
variabel dari obyek yang akan dioptimasi. Setiap neuron terhubung penuh satu sama lainnya.
JST Hopfield merupakan salah satu metoda optimasi untuk pencarian nilai minimum dari
kombinasi fungsi obyektif. Berdasarkan arsitektur atau pola koneksi yang digunakan dalam
pada jaringan syaraf tiruan, maka jaringan syaraf tiruan tersebut dapat dibedakan dalam 2
(dua) kategori, yaitu Struktur Feedforward dan Struktur Recurrent (Feedback). JST Hopfield
termasuk dalam Struktur Recurrent (Feedback).
Di bawah ini merupakan alur proses dari JST Hopfield secara umum :
Contoh Metode Hopfield
1. Contoh Soal 1
contoh untuk menjelaskan metoda ini secara rinci digambarkan atau dianalogikan
sebagai suatu problema penyelesaian permasalahan rute perjalanan salesman/pramuniaga.
Permasalahan ini dituntut untuk menentukan rute/jalur terpendek yang bisa ditempuh oleh
seorang sales dengan beberapa ketentuan antara lain :
1. Setiap kota harus dikunjungi satu kali saja.
Jika terdapat 4 kota maka dapat didefinisikan matrik 4 x 4 berisikan neuron / elemen
biner sebagai berikut :
Terlihat bahwa setiap kolom hanya ada 1 neuron yang bernilai "l" dan setiap baris
xiii
hanya terdapat neuron yang bernilai "l,'.Dengan maksud bahwa hanya diperbolehkan
mengunjungi satu kota saja dalam tiap kunjungan, dan setiap kota hanya diperbolehkan
dikunjugi satu kali saja. contoh kota ke-3 dikunjugi pada urutan ke - 2 setelah kota pertama.
Berikutnya kota ke tiga dan terakhir kota ke - 4.
Dimana:
A,B,C,D,n’ = Konstanta
Pada setiap notasi penjumlahan tersebut, dimaksudkan mempunyai batas (range) dari
1 ke n dimana n mengacu pada indek yang berhubungan dengan permasalahan, untuk
problema perjalanan pramuniaga tersebut adalah jumlah kota.
Persamaan energi tersebut merupakan implementasi dari tetapan - tetapan yang
digunakan dalam masalah ini. pada suku pertama persamaan (3.59), jika merupakan rute
yang valid menyatakan bahwa tidak boleh lebih dari satu elemen yang bernilai "1" pada
setiap barisnya, ini berarti bahwa tidak ada satu kota yang dikunjungi lebih dari satu kali.
Suku kedua jika merupakan rute yang valid menyatakan bahwa tidak boleh lebih dari
satu elemen yang bernilai "1" pada setiap kolomnya, ini berarti bahwa tidak mungkin dua
kota dikunjungi dalam waktu yang sama. Pada suku ketiga terdapat variabel dpi ini
menunjukkan jarak kota k ke kota j, atau parameter lainnya sesuai dengan permasalahan yang
dioptimasi.
Sebagai contoh perhitungan berikut matrik jarak antara empat kota yang ada : Matrik jarak
empat kota
Table 1 Matrik Jarak Empat Kota
xiv
menggambarkan keadaan dari suatu rute yang didapat. Kita tetapkan suatu rute perjalanan
sebagai berikut, kota pertama kota 1, diteruskan ke kota 2 kemudian kota 3 dan terakhir 4
sebelum kembali ke kota 1. Secara jelas ditulis kembali rute perjalanan adalah : l-2- 3-4-1
Jika rute ini merupakan sebuah rute yang benar maka suku pertama dan kedua dari
persamaan energi akan bernilai nol (0). Suku ketiga dengan sendirinya akan bernilai nol (0).
Sehingga berapa jarak total yang ditempuh pada rute tersebut dapat dihitung dengan suku
ketiga dari persamaan energi yang dituliskan kembali berikut ini.
Teknik self-organizing map (SOM) dikenalkan pertama kali oleh Teuvo Kohonen,
merupakan proses unsupervised learning yang mempelajari distribusi himpunan pola-pola
tanpa informasi kelas. Salah satu keunggulan dari algoritma Self-Organizing Map adalah
mampu untuk memetakandata berdimensi tinggi kedalam bentuk peta berdimensi rendah.
Proses pemetaan terjadi apabila sebuah pola berdimensi bebas diproyeksikan dari ruang
masukan ke posisi pada array berdimensi satu atau dua
Algoritma
Diberikan suatu data set yang akan dibuat SOM nya:
1. Inisialisasi sejumlah weight dengan nilai acak
2. Untuk setiap sample input x pada dataset,
a. cari weight yang paling mendekati dengan Euclidian distance, disebut
BMU(Best Matching Unit)
b. update weight tsb dengan rumus
c. Lakukan iterasi untuk meng-update weight sampai mencapai nilai iterasi yang
telah ditentukan dan mengurangi laju pembelajaran . Ulangi dari langkah 2
xv
RESUME KELOMPOK 5 : Classification and Regression Tree (CHART)
Pengertian Klasifikasi dan Pohon Regresi (CART)
CART merupakan singkatan dari Classification And Regression Trees. CART adalah
metode klasifikasi yang menggunakan data historis untuk membentuk decision tree yang
dapat digunakan untuk mengklasifikasi data baru. Metodologi CART dikembangkan oleh
Breiman, Freidman, Olshen, Stone pada sekitar tahun 1984 dalam paper mereka yang
berjudul “Classification and Regression Trees”. Untuk membangun decision tree, CART
menggunakan learning sample, sekumpulan data historis yang sudah ditetapkan kelas-
kelasnya untuk observasi. Decision Tree adalah representasi dari sekumpulan pertanyaan
yang akan membelah learning sample menjadi bagian yang lebih kecil. Ada tiga prinsip kerja
pada CART yaitu sebagai begikut:
1. Pembuatan pohon keputusan (model)
2. Pemangkasan pohon
3. Pembuatan Rule
Pohon Klasifikasi
Sebuah pengklasifikasian pohon merupakan sebuah pohon keputusan yang digunakan
untuk memprediksi sebuah kelas variable dari satu atau lebih variable. Pohon klasifikasi
digunakan untuk memperkirakan keanggotaan objek dalam kelas-kelas variable predictor
kategorik. Keanggotaan ini ditaksir dari pengukuran objek pada satu variable predictor atau
lebih. Pohon ini dibentuk melalui penyekatan secara rekursif, dimana kelas dan nilai-nilai
variable predictor setiap objek telah diketahui. Setiap penyekatan pada pohon yang dibentuk
dinyatakan sebagai node atau simpul. Dalam klasifikasi CART terdapat 2 hal yang dilakukan:
1. Recursive partitioning (Rekursif partisi)
Berulang kali membagi catatan menjadi dua bagian sehingga mencapai homogenitas
maksimum dalam bagian-bagian baru.
2. Pruning the tree (Pemangkasan pohon)
Menyederhanakan pohon dengan pemangkasan cabang perifer untuk menghindari
overfitting
xvi
Langkah Recursive Partitioning
Pilih salah satu variabel prediktor, xi
Pilih nilai xi, mengatakan si, yang membagi data pelatihan menjadi dua bagian
Algoritma mencoba nilai yang berbeda dari xi, dan si memaksimalkan kemurnian
dalam perpecahan awal
Memilih nilai xi yang paling tepat dengan menggunakan information gain untuk
menetukan xi terbaik untuk di pilih.
Setelah Anda mendapatkan "kemurnian maksimal" split, ulangi proses untuk node
berikutnya.
Measuring Impurity
Menghitung nilai impurity dilakukan setiap kali akan membuat Parent dan Child node untuk
bisa menentukan kemungkinan terbaik dari pembentukan level pohon, hal ini dapat dilakukan
dengan menggunakan dua metode yaitu menghitung nilai Entropy dan Nilai Information
Gain.
Menghitung nilai Entropy
𝑚
xvii
Contoh implementasi
Mesin potong rumput
Tujuan: Klasifikasikan 24 rumah tangga sebagai memiliki atau tidak memiliki mesin
pemotong
Prediktor = Pendapatan, Ukuran Lot
3. Bagi record itu menjadi nilai lebih besar dari titik tengah dan lebih kecil
xvii
i
𝐸𝑛𝑡𝑟𝑜𝑝𝑦 𝑜𝑡𝑎𝑙 𝐴 (− 𝑙𝑜𝑔 ) (− 𝑙𝑜𝑔 )
Menghitung Nilai Entropy untuk semua kemungkinan atau dari Split Point
Menghitung nilai Gain untuk masing-masing Prediktor untuk menentukan Split Point pada
predictor mana yang terbaik
𝑎𝑖𝑛 𝑛 𝑜𝑚 −( ) ( ) ( )
𝑎𝑖𝑛 𝑜𝑡 𝑖 −( ) ( ) ( )
Dari Hasil Perhitungan Entropy dan Gain didapatkan Bahwa Prediktor Income dengan nilai
84 merupakan SplitPoint terbaik.
xix
RESUME KELOMPOK 6: Support Vector Machine (SVM)
c. Soft Margin
kedua belah class dapat terpisah secara sempurna oleh hyperplane. Akan tetapi umumnya
dua buah class pada input space tidak dapat terpisah secara sempurna. Hal ini menyebabkan
constraint pada persamaan (5) tidak dapat terpenuhi, sehingga optimisasi tidak dapat dilakukan.
20
Untuk mengatasi masalah ini, SVM dirumuskan ulang dengan memperkenalkan teknik
softmargin.
2. Klasifikasi
Klasifikasi adalah proses untuk menemukan model atau fungsi yang menjelaskan atau
membedakan konsep atau kelas data dengan tujuan untuk memperkirakan kelas yang tidak
diketahui dari suatu objek. Dalam pengklasifikasian data terdapat dua proses yang dilakukan
yaitu:
1. Proses training
Pada proses training digunakan training set yang telah diketahui label-labelnya untuk
membangun model atau fungsi.
2. Proses testing
Untuk mengetahui keakuratan model atau fungsi yang akan dibangun pada proses
training, maka digunakan data yang disebut dengan testing set untuk memprediksi label-
labelnya. Klasifikasi dokumen adalah pemberian kategori yang telah didefinisikan kepada
dokumen yang belum memiliki kategori
4. Metode Kernel
Pada mulanya teknik machine learning dikembangkan dengan asumsi kelinearan.
Sehingga algoritma yang dihasilkan terbatas untuk kasus-kasus yang linear saja. Akan tetapi
untuk menghadapi kasus yang tidak linear maka dapat menggunakan bantuan berbagai macam
fungsi kernel. Kernel trick memberikan berbagai kemudahan, karena dalam proses pembelajaran
SVM, untuk menentukan support vector, maka cukup dengan mengetahui fungsi kernel yang
dipakai, dan tidak perlu mengetahui wujud dari fungsi non-linear. Menurut (Karatzouglou, dkk,
2004) ada beberapa fungsi kernel yang sering digunakan dalam literature SVM anatara lain
sebagai berikut:
a. Kernel linear adalah kernel yang paling sederhana dari semua fungsi kernel. Kernel
ini biasa digunakan dalam kasus klasifikasi teks.
b. Kernel Radial Basis Gaussian adalah kernel yang umum digunakan untuk data yang
sudah valid (available) dan merupakan default dalam tools SVM.
c.Kernel Polynominal adalah kernel yang sering digunakan untuk klasifikasi gambar.
d. Kernel Tangent Hyperbolic adalah kernel yang sering digunakan untuk neural
networks.
21
3. Kernel Trick dan non Linear Classification Pada SVM
Pada umumnya masalah dalam domain dunia nyata (real world problem) jarang yang
bersifat linear separable. Kebanyakan bersifat non linear. Untuk menyelesaikan problem non
linear, SVM dimodifikasi dengan memasukkan fungsi Kernel.
Dalam non linear SVM, pertama-tama data dipetakan oleh fungsi ⃗⃗⃗ ) ke ruang
vektor yang berdimensi lebih tinggi. Pada ruang vektor yang baru ini, hyperplane yang
memisahkan kedua class tersebut dapat dikonstruksikan.
Pemetaan ini dilakukan dengan menjaga topologi data, dalam artian dua data yang
berjarak dekat pada input space akan berjarak dekat juga pada feature space, sebaliknya duadata
yang berjarak jauh pada input space akanjuga berjarak jauh pada feature space. Selanjutnya
proses pembelajaran pada SVM dalam menemukan titik-titik support vector, hanya bergantung
pada dot product dari data yang sudah ditransformasikan pada ruang baru yang berdimensi lebih
tinggi, yaitu Φ( 𝑖). ( 𝑗)
Karena umumnya transformasi Φ ini tidak diketahui, dan sangat sulit untuk difahami
secara mudah, maka perhitungan dot product tersebut sesuai teori Mercer dapat digantikan
dengan fungsi kernel i 𝑗 yang mendefinisikan secara implisit transformasi Φ Hal ini
disebut sebagai Kernel Trick, yang dirumuskan :
i 𝑗 = Φ( 𝑖). ( 𝑗) (11)
Kernel trick memberikan berbagai kemudahan, karena dalam proses pembelajaran SVM,
untuk menentukan support vector, kita hanya cukup mengetahui fungsi kernel yang dipakai, dan
tidak perlu mengetahui wujud dari fungsi non linear Φ . Berbagai jenis fungsi kernel dikenal,
sebagaimana dirangkumkan pada tabel 1.
Selanjutnya hasil klasifikasi dari data diperoleh dari persamaan berikut :
22
SV pada persamaan di atas dimaksudkandengan subset dari training set yang terpilih sebagai
support vector, dengan kata lain data I yang berkorespondensi pada αi ≥ 0
23
RESUME KELOMPOK 7: Naive Bayes &Bayesian Network
1. Konsep Naive Bayes
Simple naive Bayesian classifier merupakan salah satu metode pengklasifikasian
yang berdasarkan pada penerapan Teorema Bayes dengan asumsi antar variabel penjelas
saling bebas (independen). Algoritma ini memanfaatkan metode probabilitas dan
statistik yang dikemukakan oleh ilmuwan Inggris Thomas Bayes, yaitu memprediksi
probabilitas di masa depan berdasarkan pengalaman di masa sebelumnya. Dasar dari
teorema naive digunakan dalam pemrograman adalah rumus Bayes berikut ini:
X1 X2 ... Xn C
24
... ... ... ... Tidak
Maka dari data tersebut diketahui bahwa X1, X2, . . . , Xn adalah atribut , sedangkan untuk
C disebut sebagai target ( didalamnya hanya ada dua kemungkinan “ Ya” atau “ Tidak “).
Untuk mencari solusi dari target C diatas kita gunakan rumus
Jika nilai PXi C Ya > PXi C Tidak maka keputusan akhir adalah Ya
Jika nilai PXi C Ya < PXi C Tidak maka keputusan akhir adalah Tidak
25
Ada 4 atribut yang digunakan, yaitu:
26
b. Probabilitas kemunculan setiap nilai untuk atribut Jarak dari Pusat Kota (C2)
c. Probabilitas kemunculan setiap nilai untuk atribut Ada Angkutan Umum (C3)
d. Probabilitas kemunculan setiap nilai untuk atribut Dipilih untuk perumahan (C4)
27
dihitung:
Probabilitas Ya =
Karena nilai Probabilitas Ya <
Probabilitas Tidak maka
keputusannya adalah TIDAK
Probabilitas Tidak =
2. BAYESIAN NETWORK
(R
2.2. Definisi Bayesian Network
Bayesian Network (BN) didefinisikan sebagai sebuah graf yang mewakili
hubungan probabilistik diantara himpunan variabel. Jika diberikan sebuah himpunan
28
berhingga variable , Bayesian Network G adalah sebuah graf acyclic
berarah yang mewakili distribusi peluang bersyarat di . Simpul-simpul pada graf
mewakili variable Sisi-sisi pada graf mewakili pengaruh antara suatu
variabel terhadap variabel yang lain.
Misalkan ada 2 faktor yang dapat menyebabkan rumput menjadi basah yaitu
hujan dan alat penyiram. Kemudian ingin diketahui apa kemungkinannya jika terjadi
hujan dan rumput basah (P(G|R)). Hal tersebut dapat di cari dengan menggunakan
Bayesian Network. Akan dipilih 3 variabel yang akan direpresentasikan dalam node-node
yaitu: Rain (R), Sprinkler (S), Grass Wet (G).
Ketiga variable memiliki nilai kemungkinan T = True dan F=False.
Kasus : Berapa kemungkinannya jika terjadi hujan dan menyebabkan rumput basah?
Penyelesaiannya:
P ( R = T | G = T ) = …..?
∑ }
P ( R = T | G = T) = ∑ }
29
= 0,00198
P (G = T, S = F, R =T) = P(G = T|S = F, R = T) P (S = F|R = T) P(R = T)
= 0,8 x 0,99 x 0,2
= 0,1584
P (G = T, S = T, R =F) = P(G = T|S = T, R = F) P (S = T|R = F) P(R = F)
= 0,9 x 0,4 x 0,8
= 0,288
P (G = T, S = F, R =F) = P(G = T|S = F, R = F) P (S = F|R = F) P(R = F)
= 0,0 x 0,6 x 0,8
= 0,0
Sehingga diperoleh hasil
P(G=T|R=T)= = 0,3577
Jadi besarnya kemungkinan jika terjadi hujan dan rumput basah adalah 0,3577
30
Algoritma EM merupakan sebuah metode optimisasi iteratif untuk estimasi Maksimum
Likelihood (ML) yang berguna dalam permasalahan data yang tidak lengkap (incomplete data).
Dalam setiap iterasi pada Algoritma EM ini terdapat 2 tahap, yaitu tahap Ekspektasi atau tahap E
(E step) dan tahap Maksimisasi atau tahap M (M step). E step bertujuan menemukan ekspektasi
bersyarat dari missing data dengan syarat data yang diketahui nilainya (observed) dan penduga
parameternya, kemudian mensubstitusikan nilai ekspektasi yang diperoleh terhadap missing
data. Atau secara ringkas algoritma EM diberikan sebagai berikut:
1. E-step :
2. M-step:
3. Iterasi sampai nilai θ(t) konvergen, atau θ(t+1) – θ(t) mendekati nol. Hasilnya adalah
sequence dari nilai-nilai θ(0) -> θ(1) -> … dimulai dari suatu nilai θ(0) tertentu.
Secara umum, iterative algoritma adalah aturan yang applicable untuk nilai θ(0)
tertentu.
31
total 24 A, 6 G 9 A, 11 G
32
𝑝 = 0,45
𝑝 = 0,55
Jadi dari tahap ini, nilai , akan menjadi nilai awal dan dilakukan iterasi dengan
kata lain mengulang langkah ini lagi dengan nilai awal yang baru sampai mendapatkan nilai
yang konvergen. Yang mana hasil akhir didapatkan setelah nilainya konvergen pada iterasi
ke-10:
33
34
RESUME KELOMPOK 9: ADABOOST
1. AdaBoost
AdaBoost merupakan salah satu dari beberapa varian tentang ide boosting. Ide
boosting berasal dari suatu cabang pada penelitian machine learning yang dikenal sebagai
computational learning theory. Konsep AdaBoost muncul dari pertanyaan Kearns dan
Valiant pada tahun 1988. Apakah suatu pembelajaran lemah dapat ditingkatkan menjadi
suatu pembelajaran yang kuat. Jawaban pertanyaan di atas dijawab oleh Schapire dengan
membangun suatu algoritma boosting untuk yang pertama kali. Selanjutnya algoritma ini
dikembangkan lagi oleh Freund dan Schapire dengan mengajukan konsep Adaptive
Boosting yang dikenal dengan nama AdaBoost.
2. Algoritma AdaBoost
Algoritma AdaBoost digunakan untuk membuat suatu klasifikasi menjadi lebih
akurat dengan cara menggabungkan beberapa pembelajaran yang lemah (weak learner)
menjadi pembelajaran yang kuat (strong learner).
AdaBoost dan variannya telah sukses diterapkan pada beberapa bidang (domain)
karena dasar teorinya kuat, prediksi yang akurat dan kesederhanaan yang besar .
Langkah-langkah algoritma AdaBoost adalah :
a. Input: Suatu kumpulan sample pelatihan dengan label 𝑦 𝑦 }, suatu
ComponentLearn Algoritma, jumlah perputaran T. Dengan nilai x sebagai data dan y
adalah klasifikasi dengan nilai 𝑦 − }.
c. Do for 𝑡 .
1) Gunakan ComponentLearn Algoritma untuk melatih suatu komponen klasifikasi,
, pada sample bobot pelatihan.
2) Hitung kesalahan pelatihannya pada
∑ 𝑦 .
3) Tetapkan bobot untuk component classifier
( ).
35
𝑦
{
𝑦
}
𝑖 Zt adalah suatu konstanta normalisasi
d. Output: 𝑖𝑔𝑛 ∑
3. Contoh 1
Diberikan data training sebagai berikut:
Langkah-langkah :
Identifikasi masalah
Data di atas merupakan contoh data training yang akan dipakai dengan x adalah
data dan y adalah klasifikasi data dengan 𝑦 − }− 𝑎𝑙 𝑎𝑛 𝑡𝑟 .
Weak learner yang akan digunakan untuk kasus di atas adalah klasifikasi sederhana
dimana x < T atau x > T dengan T adalah Threshold
Proses
1. Inisialisasi (k=1)
Dengan 𝑛𝑡 𝑘 𝑖 ,sehingga kita peroleh bobot seperti tabel
dibawah ini
36
dan 3, ke-5 dan 6, serta data ke-8 dan 9, sehingga kita dapat memilih nilai T, 2.5,
5.5 dan 8.5.
o Untuk T = 2.5
Kita dapatkan error pada data 6, 7 dan 8 sehingga diperoleh total error =
0.3.
o Untuk T = 5.5
Kita dapatkan error pada data 0, 1, 2 dan 9 sehingga diperoleh total error =
0.4
o Untuk T = 8.5
Kita dapatkan error pada data 3, 4, dan 5 sehingga diperoleh total error =
0.3
Klasifikasi 1 diperoleh :
37
( )
𝑛𝑡 𝑘 𝑛𝑖𝑙𝑎𝑖 𝑟
{
𝑛𝑡 𝑘 𝑛𝑖𝑙𝑎𝑖 𝑎𝑙
∑ 𝑝 =0.916515
Update table :
3 error
2. Untuk k = 2
Setelah melakukan iterasi pertama maka kita mendapatkan bobot baru
yaitu sebagai berikut :
38
Kita mendapatkan error pada data 6, 7 dan 8 sehingga nilai
o Untuk T = 5.5
Kita mendapatkan error pada data 0, 1, 2 dan 9 sehingga nilai
o Untuk T = 8.5
Kita mendapatkan error pada data3, 4 dam 5 sehingga nilai
( )
𝑛𝑡 𝑘 𝑛𝑖𝑙𝑎𝑖 𝑟
{
𝑛𝑡 𝑘 𝑛𝑖𝑙𝑎𝑖 𝑎𝑙
∑ 𝑝 =0.82
Update table :
3 error
3. Untuk k = 3
Setelah melakukan iterasi yang kedua maka kita mendapatkan bobot baru
yaitu :
39
40