Anda di halaman 1dari 8

Algorithm Adaptation Approach

Yang warna biru dilakukan ketika sudah diketahui nilai k jika nilai k sudah tidak berubah uabh maka
proses pencarian bisa dilakukan kayak training atau preproses selama nilai nya tetap. Jadi cukup training
warna biru missal utnk 100 data cukup 1 kali, baru jalankan yang ijo 100 kali. Kj dan not j itu
menunjukkan label j.

Missal ada dat abaru x diidentifikasi KNN dari x kemudian untuk setiap label hitung cj jumlah neighbor
yang mengandung j, lalu dpat label, lalu cari label yang peluang yg lebih besar.
Missal ada 1000 data dengan multi label. Untuk k yang sama apa saja neighbournya. Untuk setiap label
hitung peluang hj, dengan x punya peluang yj, hitung kj0 .. kj(k).

Untuk menghitung gunakan teorema bayes.

Hitungnya missal L1 dari data 1 dan 3 jadinya 2/4. Kkmeudian hitung kj ke 0 hingga k3 dan not kj 0 1 2 3.
Di liat table neigh bout missal kj 2012 terus neighbor 123 maka liat kj(2), kj(0) dst

Cari peluang hj*cj gitu juga utk not hj. Terus bandungin dan ambil hj >dari not hj. Kalau rasio >1 maka
itu lbelnya.

MULTI LABEL DTL

Dari DTL bias lalu cari Info Gain per atribut lalu cari atribut terbesar jadi root data set di bagi 2 sebagai
left dan right lalu looping. Setelah selesai lakukan sperti DTL biasa. Bedanya nanti tiap daun labelnya
>1. Ketika simpul peluangnya > threshold maka jadi positf.
Bedanya digunaakan komplemen.

Kalau langsung make Xgboost atau random forest sudah bisa menghandle multi label.

Adaboost  random forestyang menggunakan bagging dan XGboost yang menggunakan boosting.
Kalau ada data multi label lakukan data transformasi kalikan dengan label yang mungkin untuk data 1
nyatakan +1 dan untuk religion dan science – jadinya kayak klasifikasi biasa Cuma inputnya untuk
multi label.

Beda db=gn binary relevance.

Binary relvence: langsung di bagi jadi 4 data yang isinya data yang mengandung label tertentu. (sama
sama transformasi data)

Cuma di Ada boost tidak dikalikan dneganlabel jadinya hanya 1 klsifier. Ada boost adalah ensemble
dengan boosting.

Binary relevance data set jadi banyak.

ML KNN : mencari prior probability h dan not hj. Lalu cari kj. Yang mana kj adalah jumlah data yang
punya target yj dengan neighbor sejumlah r. menghitung prior probability dan posterior probability.
ML DTL : recursive mencari gain paling tinggi nanti di bagi 2 teru shitung lagi IG nya nanti jadi
subpohon terus di bentuk lagi. Bedanya di pencarian entropi yang ada q nya.

Adaboost MH : melakukan data transformasi. Tidak ada perubahan di algoritma. Dia tidak membuat
jadi beberapa data set tapi Cuma 1 aja smeuanya.

Yang dilakukan ada boost di buat jadi 1 data set. TF learning di NLP label di tambah jadi input di data
set. Di ada boosd ex, label dan kelas nanti masuk ke algo ada boost. Nnati yang positif di kembalikan
sebagain nilai prediksi.

ANN : mensupport multi label secara langsung.

Yang dilakukan set N output(label) kalau mau langusng harus pakai sigmoid.

BP-MLL :menambahkan error baru.

ML threshold predicit.

Di lakukan softmax diakhir: sehingga dapat probabilitasnya.


Mendefinisikan tm lalu yang lebih dari threshold itu lah labelnya. Lalu eror diitung dr tm.

Kalau make softmax yang lbh dr th itu lah labelnya.

Melakukan pencarian atribut seseorg. Cnn  fully connected layer  softmax. Ada 65 atribut yang jadi
kelas target kemudia diidentifikasi th >1/2. Kalau make softmax totalnya = 1. Kalau tm sebelumnya tidak
harus 1.

CNN- spft max. Cuma dia make cincatenasi dan satunya make avg baru keluar hasilnya.
Dari rinsens mengenali 14 penyakit dari gambar x-ray 1024x1024 dengan 112000 xray.

CNN lalu di classification layer d buang lalu layer tearkhir dimasukkan learning classifier di lakukan
transformasi dengan linier model clasffier.

Yang diambil feature vector

CNN+transformasi+learning di pakai xgboost.


2 data set yang punya label kardinalitas sama dan label density beda bakalan punya property yang beda.
Beda prob transformasion: BR CJ LP CLR

Algor : ML KNN ML CNN ML DTL

Problem transformation independent.

Problem transformation : ensemble. Label power set menghasilkan 1 modle saja, kecuali ada boost udh
merupakan ensemble.

Data preprocessing di butuhkan dip rob transformation.

Anda mungkin juga menyukai