Anda di halaman 1dari 12

SEARCHING

1. Judul Jurnal : A*-based Pathfinding in Modern Computer Games

Pembahasan : didalam jurnal ini membahas tentang pemakaian algoritma dalam menentukan
penyelesaian permasalahan yang terdapat didalam game game seperti : role-playing game
dan real-time strategy games, path findding, dll. Didalam game tersebut terdapat rintangan
yang harus dilalui dan yang menjadi permasalahan adalah bagaimana cara untuk melewati
rintangan tersebut secara pintar dan mencari jalan yang paling efisien pada medan/stage yang
berbeda. karena kesuksesan algoritma A* dalam pencarian jalan maka banyak peneliti
menaruh harapan terhadap algoritma ini agar dapat mengoptimalkan dalam penyelesaian
masalah yang terdapat pada game tersebut. Algoritma A* bisa digunakan untuk
menyelesaikan beberapa masalah salah satu nya adalah pencarian jalan dan algoritma A* juga
menjamin akan menemukan solusinya jika solusi nya ada dan algoritma A* pasti optimal
karena biaya/jalan yang di hasilkan dari algoritma A* akan lebih sedikit atau sama dengan
biaya termurah/terpendek dari titik awal ke tujuan(solusi). Dengan menggukan algoritma A*
dapat mengoptimalkan dari beberapa sudut pandang yaitu :

1. Space Search : dengan menggunakan algoritma A* dapat mengurangi daerah pencarian


yang dapat mempercapat waktu dalam pencarian solusi atau menuju tujuan. Dalam
algoritma ada 2 metode pencarian yang digunakan yaitu Hierarchical Pathfinding A*
(HPA*) dan navigation mesh(NavMesh)
2. Heuristic Function : algoritma A* mengembang dan mengoptimal algoritma djikstra
yang pasti menemukan jalur terpendek dengan cara menggunakan pendekan
heuristic
3. Memory : dengan menggunakan algoritma A* dapat mengurangi penggunaan memori
yang dibutuhkan untuk menemukan solusi dari suatu permasalahan didalam game
path findding
4. Data Structure : mengenalkan struktur data yang baru dengan menggunakakn binary
heap untuk menyimpan data agar dapat mempercepat penemuan solusi.

Contoh game yang dapat menginplementasi algoritma ini adalah strategy game seperti age of
empire II dan first person shooter seperti counter strike dan juga algoritma A* dapat
membantu dapat mempresentasikan map(peta) dari game tersebut agar menemukan jalur
yang tepat dan cepat

2. Judul Jurnal : External Memory Bidirectional Search

Pembahasan : dalam prosiding ini menjelaskan bahwa penggunaan bidirectional search untuk
external memori. Memori utama adalah hambatan utama untuk penyelesaian masalah yang
besar dengan bidirectional search. Algoritma tersebut membutuh kan external memory
seperti hard drive yang lebih besar dari RAM tapi dengan pendekatan algoritma yang berbeda
dari random access tidak efektif pada perangkat tersebut. Tetapi ketika di desain dengan baik
algoritma external memori mempunyai potensi untuk memperbanyak jumlah dari masalah
yang diselesaikan tanpa peningkatan penggunaan yang signifikan dari external memori
tersebut. Dalam penggunakan bidirectional search untuk dibutuhkan nya delayed solutin
detection(DSD) di mana DSD ini tidak langsung melakukan pengecekan solusi tetapi
pengecekan dilakukan ketika kondisinya di perluas dan ditulis. Bidirectional seacrh harus
melakukan mengecekan tambahan untuk mengecek kondisi ketika list nya terbuka di kedua
arah baik maju ataupun mundur. Parallel external-memoy MM(PEMM) mempunyai basis
algoritma MM(met the middle) tetapi dengan modifikasi yang sama bisa membuat algoritma
external bidirectional search yang lain. MM mengembang kondisi nya denga membuat
prioritas menjadi max(maksimum). MM berhenti ketika salah satu dati 4 kondisi berhentinya
terpenuhi dengan solusi terbaik yang ditemukan selama proses berjalan. Penggunaan PEMM
dapat mengindentifikasi pendeteksian solusi terbaik adalah penting untuk external memory
bidirectional search dan menunjukkan bahwa PEMM bisa digunakan untuk menyelesaikan
permasalahan yang besar.

3. Judul Jurnal : Implementation of Web Structure Mining with Breadth First Search and Depth
First Search

Pembahasan : jurnal ini membahas tentang penggunaan breadth first search dan depth first
search dalam web structure mining. Breadth First Search is a searching technique which uses
QUEUE (First in First out) data structure to be implemented. It starts at the initial node and
then searching is applied in downward on a tree structure in breadth wise order. And Depth
First Search uses STACK (Last in First out) which starts as initial node and applied downward
on a tree structure in depth wise order. 3 Web Mining adalah aplikasi teknik data mining untuk
mengambil informasi yang berguna dan berpengetahuan dari data web. Data web dapat
berupa konten web, struktur web, dan data penggunaan web. Bergantung pada jenis data
yang akan diambil, Web Mining dibagi menjadi tiga jenis, yaitu, content web mining, structure
web mining , dan usage web mining. Ada 2 permasalahan yang dihadapi oleh penguna web
yaitu pencarian yang tidak sesuai dengan hasil yang kedua tidak bisa banyak menampilkan
index informasi. Dengan menggunakan web structure mining dapat menyelesai permasalahan
tersebut. Jadi web structure mining dengan Breadth first search(BFS) memiliki peforma yang
lebih baik dari web structure mining dengan depth first search(DFS) dari karena dengan BFS
informasi yang di dapat lebih banyak dan lengkap dan juga menghemat penggunaan waktu
dan usaha yang dilakukan oleh pengguna.

4. Judul Jurnal : An Appropriate Search Algorithm for Finding Grid Resources

Pembahasan : didalam jurnal ini membahas tentang mencari algoritma pencarian apa yang
sesuai dengen lingkungan grid(kumpulan sumber daya). Disini menggunakan beberapa
algoritma seperti breadth first search(BFS), depth first search(DFS), depth itterative deepening
search. Algoritma-algoritma ini akan di uji dan di analisa mana yang memiliki nilai kompleksitas
terendah. Sebuah grid adalah kumpulan sumber daya komputer yang sedang melakukan
tugasnya dan bisa dikatakan sebagai sebuah sister terdistribusi yang melibatkan jumlah file
yang sangat besar. Analisis algoritma adalah untuk menjelaskan jumlah sumber daya (waktu
dan penyimpanan) yang dibutuhkan untuk mengembangkan, pemeliharaan dan eksekusi.
Efisiensi algoritma adalah fungsi dari jumlah sumber daya komputer yang dibutuhkan,
mengukur tipikal waktu eksekusi dan jumlah memori yang digunakan oleh algoritma.
Kompleksitas algoritma adalah memerhatikan tentang seberapa cepat atau lambat nya
algoritma tersebut berjalan. Kompleksitas juga digunakan untuk mengukur performa dari
algoritma tersebut. Kriteria untuk evaluasi strategi pencarian :

 Complateness : apakah algoritma tersebut menjamin untuk menemukan solusi jika


ada.?
 Optimality : apakah strategi algoritma tersebut mempunyai nilai terkecil dan kualitas
yang baik dari beberapa solusi.?
 Time complexity : berapa lama waktu algoritma tersebut agar menemukan solusi
 Space complexity : berapa jumlah jumlah memori yang diperlukan oleh algoritma
untuk melakukan pencarian.?

Didalam time dan space complexity mempunya variabel yaitu :

B : maksimun branching factor dari pencari tree

D : kedalaman(limit) dari nilai terkecil dari biaya dari solusi

M : kedalaman(limit) dari kondisi ruang

Informed search adalah sebuah kecerdasan buatan pencarian yang menggunakan informasi
tentang permasalahan untuk mengarahkan kan pencarian, biasanya menebak jarak dari
kondisi tujuan tetapi pencarian tidak selama nya dapat dilakukan. Itu menggunakan
pengetahuan masalah yang lebih spesifik kedepan untuk mendefinisikan masalah itu sendiri.

Uninformed search bisa juga dikatakan sebagai brute force, blind, exhaustive atau pencarian
pohon. Brure force adalah teknik umum yang digunakan untuk melakukan pemecahan
masalah yang berisi tentang sistematika pencacahan semua kemungkinan kandidat yang
dapat menjadi solusi dan mengecek setiap kandidat apakah solusi yang sesuai dengan
pemasalahan brute force tidak membutuhkan informasi spesifik tentang pemasalahan nya.

Breadth first search (BFS) adalah pencarian nya dilakukan dengan melitasi sebuha pohon
pencarian untuk mengarah ke node yang akan menjadi kandidat solusi dari permasalahan
tersebut. BFS adalah strategy pencarian yang simpel. Didalam strategi ini tidak ada solusi
yang dihilangkan dan itu dapat menjamin bahwa akan menemukan solusi optimal tetapi
tidak akan cocok ketika ruang pencarian nya besar.

Depth first search (DFS) adalah stategi yang lebih mendalam melakukan pencarian ke ruang
permasalahan. DFS menggunakan LAST IN FIRST OUT stack untuk menjaga agar node tidak
memanjang. Strategi ini memperluas jalur yang sekarang sejauh mungkin sebelum
melakukan backtracking ke titik pilihan terakhir dan mencoba jalur alternatif lain nya. Secara
umumnya DFS ini di implementasikan secara rekursif.

Depth First Iterative Deepening Search menggabungkan antara Breadth first search (BFS)
dan Depth first search (DFS) dalam melakukan pencarian. algoritma ini memiki time
complexity yang sangat tinggi dibandingkan strategi algoritma lainnya tetapi strategi ini akan
menjamin akan menemukan solusi jika solusi tersebut ada.

Semua algoritma tersebut di analisa dan akan dicari mana yang lebih sesuai dengan grid.
Algoritma algoritma tersebut di imlementasi menggunakan bahasa pemograman C. Dari
hasil uji coba mendapatkan hasil bahwa Depth First Iterative Deepening Search menjadi
strategi yang paling sesuai dengan grid karena Depth First Iterative Deepening Search
menggabungkan antara Breadth first search (BFS) dan Depth first search (DFS) dan itu
membuat Depth First Iterative Deepening Search lebih baik dari 2 strategi pencarian
tersebut.
5. Judul Jurnal : A Survey On Breadth First Search (BFS) & Metropolis Hasting Random Walk
(MHRW)

Pembahasan : dalam jurnal ini akan membanding kan antara Breadth First Search (BFS) &
Metropolis Hasting Random Walk (MHRW) dengan menggunakan sampel grafik algoritma
untuk mencari tahu algoritma yang terbaik. Jejaring sosial adalah infrastruktur populer untuk
komunikasi, interaksi, dan berbagi informasi di Internet. Jaringan sosial ini menyediakan
komunikasi, penyimpanan, dan aplikasi sosial untuk ratusan juta pengguna. Pengguna
bergabung, membuat tautan sosial ke teman, dan memanfaatkan tautan sosial mereka untuk
berbagi konten, mengatur acara, dan mencari pengguna tertentu atau sumber daya bersama.
Jaringan sosial ini menyediakan platform untuk mengatur acara, komunikasi pengguna ke
pengguna, dan merupakan salah satu tujuan paling populer di Internet. Ide utama dari
pencarian sosial media adalah untuk menggunakan informasi yang dikumpulkan dari user
untuk meningkat kan akurasi dari hasil pencarian. Graph sampling adalah sebuah teknik untuk
mengambil potongan dari titik atau sudut dari grafik sebenarnya. Di beberapa kasus grafik
diketahui dan tujuan dari sampling diambil dari grafik yang lebih kecil. Dari hasil jurnal
diketahui bahwa breadth first search merupakan salah satu algoritma yang paling sederhana
dalam mencari grafik. Dari grafik dan titik yang tampak breadth first search mencari dan
memeriksa sudut sudut yang ada pada grafik dan setiap titik yang dapat dijangkau. Breadth
first search menghitung jarak(dengan jumlah sudut paling sedikit) dari semua simpul yang bisa
di jangkau. Algoritma ingin menggunakan FIFO(FIRST IN FIRST OUT) untuk setiap simpul yang
di kunjungi. Sedangkan metropolis hasting randow walk(MHRW) adalah algoritma yang
menghasilkan urutan nilai sampel yang sedemikian rupa karena banyak nya nilai yang
dihasilkan. Nilai nilai sampel ini dihasilkan secara iteratif dengan distribusi sampel nya
tergantung dari nilai sampel saat ini. Setiap iterasi MHRW akan mengambil nilai node sebagai
nilai sampel berikutnya berdasarkan nilai sampel saat ini. Kemudian dengan beberapa
kemungkinan node tersebut diterima atau ditolak. Oleh karena itu kinerja Metropolis Hasting
Randow Walk(MHRW) lebih baik dari pada Breadth First Search (BFS) karena berdasarkan
wartu, distribusi frekuensi, kesalah rata rata dan efisiensi.

LEARNING

1. Judul Jurnal : Prediction the Loyal Student Using Decision Tree Algorithms

Pembahasan : jurnal ini membahas tentang hal hal apa saja yang menjadi faktor external yang
membuat para mahasiswa loyal(setia) terhadap universitas nya dengan cara menggunakan
teknik data mining dan menggunakan algoritma decision tree. Pada saat ini hal-hal hal yang
dihadapi oleh sistem pengajaran tertinggi adalah menemukan yg lebih efektif, efisien, dan
qualitas yang lebih baik yang bisa diberikan kepada mahasiswa dan memprediksi pola dari
mahasiswa yang loyal terhadap kampus nya. Pada sistem pendidikan yang lebih tinggi dan
penggunaan data untuk menentukan pilihan telah berkembang karena itu para organisasi
yang bergerak di bidang pendidikan mulai mengembangkan dan meningkatkan sistem
pendidikan ini. Pilihan terbaik yang dapat dibuat adalah dengan menggunakan teknik baru
seperti metode data mining. Data mining adalah sebuah proses untuk mengambil informasi
yang berguna dari data yang berjumlah banyak yang diambil dari database. Informasi tersebut
berisi tentang karakteristik dari keluarga dan mahasiswa tersebut, latar belakang pendidikan
nya, dll. Dengan mempelajari pola yang tersembunyi dan pengetahuan yang tersembunyi dari
informasi ini dapat membantu untuk pemgambilan keputusan apa sistem pendidikan yang
lebih tinggi menambah dan meningkatkan proses pendidikan pada bidang lain nya seperti
penjadwalan, pendaftaran, evaluasi, dan konseling. Temuan dari hasil data mining tentang
data pendidikan yang besar dapat dipahami, berguna, sebelumnya tidak diketahui, valid, dan
inovatif. Penggunaan algoritma decision tree untuk menentukan pola mahasiswa yang loyal
dan karena itu meningkatkan kualitas dari sistem pendidikan yang lebih tinggi. Tujuan nya
untuk menyediakan model yang akurat, praktis dan dapat diandalkan yang dapat memenuhi
persyaratan mendasar dari universitas. Diperkirakan bahwa faktor-faktor yang mempengaruhi
prestasi dapat berguna bagi siswa, instruktur, dan administrator yang tertarik untuk mencapai
kesuksesan. Sebelumnya banyak penelitian yang telah dilakukan diberbagai bidang dalam
pendidikan seperti menentukan faktor apa saja yang mempengaruhi prestasi dari mahasiswa
nya, dll. Dan mengumpulkan data data nya dengan metode survey untuk mencari tahu korelasi
faktor dan dampat terhadap prestasi mahasiswanya. Dalam jurnal ini menggunakan data
mining dengan metode CRISP-DM (Cross Industry Standard Process for Data Mining)

A. Data
Data adalah subjek utama dari pencarian informasi. Pemilihan atribut dan tipenya
memiliki efek yang kuat pada akurasi model. Data yang digunakan dalam penelitian
ini dikumpulkan dari siswa Master. Atributnya adalah informasi umum tentang siswa
seperti karakteristik demografi (jenis kelamin, usia, status perkawinan, kota terdaftar,
dll.), Status pekerjaan, latar belakang pendidikan (jenis universitas sebelumnya, rata-
rata, jumlah istilah yang dihabiskan di universitas sebelumnya, dll .), pendidikan orang
tua, dan keuangan.
 Pre Processing Data
Proses persiapan data termasuk analisis komprehensif dari variabel dan nilai-
nilai mereka untuk menghapus atau mengurangi data yang terdistorsi
(misalnya, hilang, berisik, pencilan atau nilai tidak lengkap. Kadang-kadang
beberapa nilai atribut hilang, jadi ada dua solusi dasar: kita dapat hapus
seluruh atribut yang memiliki sejumlah besar nilai yang hilang atau ganti nilai
yang hilang dengan nilai konstan, atau nilai rata-rata.
 EDA(Exploratory Data Analysis)
Dalam bidang pendidikan pemilihan fitur menjadi hal yang sangat penting, ini
adalah metode untuk mengindentifikasi relevan dan fitur paling penting dari
atribut yang lengkap. Atribut yang tidek relevan akan berdampak pada pada
akurasi prediksi. Dalam kasus ini fitur fitur yang penting akan diberi peringkat
berdasarkan Pearson Chi-Square. Ini mengukur kemandirian target dan
prediktor tanpa menunjukkan kekuatan hubungan yang ada

Decision tree learning adalah metode yang populer yang digunakan dalam data mining karena
struktur dari pengklasifikasi decision tree tidak memerlukan domain pengetahuan atau
mengatur parameter, oleh karena itu sangat cocok dalam pencarian pengetahuan Tujuannya
adalah untuk menghasilkan model yang memprediksi nilai variabel target berdasarkan
beberapa variabel input. Dengan kata lain, decision tree dianggap sebagai model yang mudah
dimengerti karena ada proses penalaran untuk setiap kesimpulan. C4.5 adalah algoritma yang
digunakan untuk membangun decision tree yang dikembangkan oleh Ross Quinlan. Penelitian
menunjukkan bahwa algoritma C4.5 induction tree membuat akurasi klasifikasi yang baik dan
tercepat di antara algoritma lainnya. Dalam penelitian ini, algoritma C5 diterapkan, yang
merupakan versi perbaikan dari C4.5. Classification and Regression Trees (CART) adalah
metode nonparametrik dan tidak memerlukan variabel yang akan dipilih terlebih dahulu.
CHAID (Chisquared Automatic Interaction Detector) melakukan multi-level splits ketika
menghitung Classification tree. CHAID dapat digunakan untuk prediksi maupun klasifikasi, dan
untuk mendeteksi interaksi antar variabel. Teknik data mining dapat secara akurat
memprediksi siswa yang setia (sukses), dan oleh karena itu temuannya memungkinkan
peneliti untuk melakukan analisis dan identifikasi lebih lanjut dalam prediktor penting. Hasil
kami menunjukkan bahwa, metode penambangan data mampu memprediksi siswa yang setia
sekitar 90% akurasi melalui data yang diberikan cukup dengan fitur yang tepat. Di antara tiga
model prediksi individual yang digunakan, algoritma pohon keputusan CART melakukan yang
terbaik diikuti oleh pohon keputusan C.5. Dari ketiga jenis model yang digunakan, algoritma
CHAID menghasilkan akurasi prediksi terendah.

2. Judul Jurnal : Image Reconstruction Using Pixel Wise Support Vector Machine (SVM)
Classification

Pembahasan : jurnal ini berisi tentang bagaimana aspek klasifikasi dan merekonstruksi
sebuah gambar menggunakan Support Vector Machine (SVM). Klasifikasi data menjadi bagian
terpenting dari machine learning. Ide dari support vector machine (SVM) ini adalah membuat
hyper plane(fungsi pemisah) dari dataset(kumpulan data) untuk menunjukkan kelas mana
milik dari data tersebut. SVM memetakan serangkaian data training berlabel biner yang
diberikan ke ruang fitur berdimensi tinggi dan memisahkan dua kelas data dengan margin
maksimum hyper plane(fungsi pemisah). SVM menggunakan hyper plane linier yang optimal
untuk memisahkan dua set data dalam ruang fitur. Pemisahan hyper plane adalah hyper planr
yang memaksimalkan jarak antara dua hyper plane paralel. Hyper plane optimal ini diproduksi
dengan memaksimalkan margin minimum antara dua set data. Oleh karena itu hyper plane
yang dihasilkan hanya akan tergantung pada pola pelatihan perbatasan yang disebut support
vektor . Jadi, support vector adalah titik data yang terletak paling dekat dengan keputusan.
Dalam beberapa studi yang telah dilakukan diketahui bahwa support vector machine
memberika akurasi yang sangat tinggi dalam mengklasifikasikan data dibandingkan dengan
algoritma klasifikasi lain nya namun Kinerja SVM sensitif terhadap bagaimana parameter biaya
dan parameter kernel ditetapkan. Akibatnya, pengguna biasanya perlu melakukan validasi
silang yang luas untuk mengetahui parameter optimal sebagai parameter biaya dan
parameter. Proses ini dikenal sebagai pemilihan model. Parameter ini termasuk pilihan fungsi
kernel, standar deviasi kernel Gaussian, bobot relatif yang terkait dengan variabel slack untuk
memperhitungkan distribusi data berlabel yang tidak seragam, dan jumlah contoh data
pelatihan.

 Definisi variabel
1. Misalkan x menunjukkan vektor yang diambil dari ruang input, diasumsikan
sebagai dimensi mo.
2. Biarkan {φj (x)} untuk j = 1 hingga m1, menunjukkan satu set transformasi
nonlinier dari ruang input ke ruang fitur [8].
3. m1 adalah dimensi ruang fitur.
4. {wj} untuk j = 1 hingga m1 menunjukkan satu set bobot linear yang
menghubungkan ruang fitur ke ruang output.
5. {φj (x)} mewakili input yang disediakan ke berat wj melalui ruang fitur.
6. b adalah bias.
7. αi adalah koefisien Lagrange. 7. di output target yang sesuai.
 Kernel selection In SVM
Vektor pelatihan xi dipetakan ke ruang dimensi yang lebih tinggi (mungkin tak
terbatas) oleh fungsi φ. Kemudian SVM menemukan hyperplane pemisah linier
dengan margin maksimal dalam ruang dimensi yang lebih tinggi ini. C> 0 adalah
parameter penalti dari istilah kesalahan. Selanjutnya, 𝐾 𝑥, 𝑥𝑖 = 𝜑𝑇 𝑥 𝜑 𝑥𝑖 disebut
fungsi kernel
 Step to involve in the design SVM
1. Hyper plane bertindak sebagai decision surface di definisikan seperti :
∑Ni=1 𝑥,𝑥𝑖 = 0 𝑁 𝑖=1
2. Persyaratan kernel K (x, xi) adalah untuk memenuhi teorema Mercer [14].
Fungsi kernel dipilih sebagai plynomial machine learning
𝐾 𝑥,𝑥𝑖 = (1 + 𝑥𝑇𝑥𝑖)2
3. perkalian Lagrange {αi} untuk i = 1 hingga N yang memaksimalkan fungsi
objektif Q (α), dilambangkan dengan α0, i ditentukan.

4. Vektor weight vector w0 yang sesuai dengan nilai optimal perkalian Lagrange
ditentukan dengan menggunakan rumus berikut:

 Model Selection in SVM


SVM telah menunjukkan kinerja yang baik dalam klasifikasi data. Keberhasilannya
tergantung pada penyetelan beberapa parameter yang mempengaruhi kesalahan
generalisasi. Kami sering menyebut prosedur tuning parameter ini sebagai pemilihan
model. Jika Anda menggunakan SVM linier, Anda hanya perlu menyesuaikan
parameter biaya C. Sayangnya, SVM linier sering diterapkan pada masalah yang dapat
dipisahkan secara linier. Banyak masalah yang tidak dapat dipisahkan secara linear.
Oleh karena itu, kami sering menggunakan kernel nonlinear untuk menyelesaikan
masalah klasifikasi, jadi kami perlu memilih parameter biaya (C) dan parameter kernel
(γ, d). Dengan metode pencarian grid dalam validasi silang untuk memilih set
parameter terbaik. Kemudian terapkan parameter ini ke dataset pelatihan dan
kemudian dapatkan klasifikasi . Setelah itu, gunakan classifier untuk
mengklasifikasikan dataset pengujian untuk mendapatkan akurasi yang umum.
 SVM Program Procedure
Langkah 1: Baca Gambar dan ubah ke Gambar Biner.
Langkah 2: Baca 5000 piksel acak dari Gambar Biner dan pertahankan nilai piksel (1
untuk putih, 0 untuk hitam).
Langkah 3: Latih SVM dan tunjukkan hasilnya.
Langkah 4: Pertimbangkan kernel RBF.
Langkah 5: Klasifikasikan observasi menggunakan Pengklasifikasi SVM yang Dilatih.
Langkah 6: Gunakan validasi silang untuk menemukan parameter terbaik rbf_sigma
dan boxconstraint. Langkah 7: Gunakan parameter terbaik rbf_sigma dan
boxconstraint untuk melatih seluruh rangkaian latihan.
Langkah 8: Uji dan Evaluasi kinerja dari classifier.
Pengujian dilakukan dengan beberapa tahap :

Tahap 1 : penentuan batas dan kurva yang tepat


Di bagian ini, dua kelas data pelatihan ditentukan dan ditetapkan batas nya. Tujuan dari tugas
ini adalah dan hanya untuk menguji dan membenarkan akurasi klasifikasi dari gambar yang
diberikan.
Tahap 2 : Training data set and testing data set determination
Pada tahap ini hasil dari tahap satu akan diuji dengan data set determination yang sudah kita
tentukan sebelumnya.
Tahap 3 : Simulation Result
Pada tahap ini akan mesimulasikan hasil dari semua tahap yang dilalui menggunakan software
yang dimana pada jurnal ini menggunakan MATHLAB

Ketelitian klasifikasi dari SVM dengan fungsi kernel radial function (RBF) adalah setinggi 99.5%
ketika rbf_sigma dan boxconstraint di mana 0.1005 dan 62.1672. Kemudian kami
menggunakan parameter terbaik rbf_sigma dan boxconstraint untuk melatih seluruh
rangkaian latihan.
Output dari perangkat lunak Matlab adalah:
Akurasi Klasifikasi = 99,5%
Dari jurnal ini diketahui hasil bahwa dengan menggunakan Support Vector Machine (SVM)
untuk merekonstruksi sebuah gambar akan mendapatkan ke akurasi yang sangat tinggi tetapi
akan mempunyai waktu eksekusi yang sangat tinggi terlebih lagi jika menggunakan dataset
yang besar itu akan membutuh kan data point yang sangat besar juga dari seluruh data set
untuk membuat kernel matrix.

3. Judul Jurnal : Application Of Artificial Neural Networks In Estimating Participation In


Elections

Pembahasan : pada jurnal ini membahas tentang penggunaan neural network sebagai metode
untuk memperkirakan jumlah partisipasi didalam pemilihan presiden selanjut nya di provinsi
kohgiloye dan Boyerahmad di negara Islamic Republic of Iran. Mengantisipasi perilaku politik
dari public akan menuju depan dari masyarakat itu sendiri dimana setiap orang bisa mulai
memprogram dan membuat kebijakan tentang karir pekerjaan nya, politik, ekonomi, dll.
Karena banyak dari ahli teori politik memiliki banyak masalah dalam mengantisipasi perilaku
politik publik dalam pemilihan semacam ini dan tidak dapat menggunakan metode analisa
statistik dan sosial dan politik, jadi metode data mining seperti neural network digunakan
untuk menemukan aturan yang potensial dalam jenis data ini dengan cara mengumpulkan
informasi dan dokumen perilaku pemilu dan politik orang sebelumnya. Neural network
dianggap sebagai metode komputasi matematis modern yang digunakan untuk memecahkan
masalah dinamis yang tidak di antisipasi sebelumnya dalam pengembangan sistem perilaku
selama periode waktu yang ditentukan. Dengan belajar untuk mengenali pola dari data di
mana metode komputasi dan statistik lainnya gagal untuk menyelesaikannya, Neural network
mampu memecahkan masalah. Mengantisipasi partisipasi dan hasil pemilihan adalah salah
satu tantangan yang paling menarik bagi ilmuan politik, itu dapat menggunakan neural
network untuk mengantisipasi isu-isu politik, meskipun jarang digunakan dalam ilmu politik
oleh para ahli.

Neural Network adalah metode yang sesuai untuk menunjukkan efisiensi dalam
mengantisipasi nilai tukar, menganalisis seri waktu ekonomis, isu-isu yang berkaitan dengan
saham dan pasar saham. Hasil dan fungsi neural network telah menunjukkan bahwa model ini
memiliki fungsi yang lebih baik daripada metode populer lainnya dengan mempertimbangkan
kriteria penilaian antisipasi urutan waktu di masa depan. Dalam bidang politik, neural network
yang flexibel mampu mengenali dan mengantisipasi hubungan empiris antara demokrasi dan
teori tabrakan global sementara model logika tidak mampu untuk melakukan nya. Multi layer
feed-forward adalah contoh dari kepintaran neural network dimana learning yang dilakukan
oleh neural network menggunakan algoritma back propagation. Sebuah jaringan multi layer
feed-forward berisi satu lapisan input, satu atau lebih lapisan tersembunyi dan lapisan output.
Setiap layer berisi unit-unit. Input ini dibawa melalui lapisan input dan kemudian menjadiyang
menguntukan. Kemudian, mereka dibawa ke lapisan kedua unit pseudo-neuron yang dikenal
sebagai lapisan tersembunyi. Output dari hidden layer dapat dimasukkan ke layer tersembunyi
lain sebagai input dari layer output. Output tertimbang atau lapisan tersembunyi digunakan
sebagai input lapisan output di mana mereka dapat mencapai ke berat badan ideal dan
pembelajaran jaringan dengan seri data pendidikan dan menyediakan operasi klasifikasi dan
antisipasi untuk tuples dan sampel uji. Dalam jurnal ini seharusnya mengatisipasi jumlah
partisipasi pada pemilihan ke 11 Islamic Republic of Iran di provinsi Kohkiloye dan
Boyerahmad. Data yang ada mencakup 100 partisipasi yang memenuhi syarat untuk hadir. Hal
pertama yang dilakukan adalah membuat neural network dengan bantuan software mathlab
disini menggunakan neural network dengan feed-forward dengan transmisi tan-sigmoid pada
layer tersembunyi dan output layer. Di jaringan ini, kami menggunakan 10 neuron di lapisan
tersembunyi. Jaringan memiliki 10 input dan 3 output sebagai vektor target memiliki 3
anggota.

Pada bagian network learning, disini memulai mempelajari dengan memilih gradient learning
function. Perlu dicatat bahwa fungsi kesalahan kuadrat di pilih untuk mengenali efisiensi
jaringan. Untuk mencari tingkat antisipasi yang dilakukan dan nilai-nilai nyata, maka
digunakan konsep eror function. Dari hasil percobaan dengan menggunakan 100 orang
partisipan di ketahui bahwa dengan menggunakan neural network feed-forward dengan
menggunakan tan-sigmoid transfer mendapatkan hasil 91% akurat untuk memprediksi
pastisipan untuk pemilu selanjutnya berdasarkan hasil dari grafik ROC.

4. Judul Jurnal : Customer Relationship Management Based On Decision Tree Induction

Pembahasan : dalam jurnal ini membahas tentang bagaimana customer relationship


management dengan menggunakan decision tree untuk mendapatkan keuntungan bagi
perusahaan. Customer relationship management (CRM) menjadi masalah yang harus
diperhatikan bagi perusahaan, dengan CRM bisa mendefinisikan proses prediksi dari perilaku
konsumen dan memilih tindakan apa yang dilakukan untuk meningkatkan keuntungan
perusahaan konsep ini telah memberikan warna baru karena pertumbuhan internet dan e-
bisnis. CRM dapat juga mengoptimasi bisnis proses dengan cara memprediksi terlebih dahulu
apa yang konsumen inginkan dan bisnis tersebut dapat memasarkan produk sesuai dengan
segmentasi yang tepat dan pada saat yang tepat melalui pengiriman yang cepat. Kepuasan
pelanggan dapat ditingkatkan dengan cara marketing yang lebih efektif. Salah satu isu dari
customer relationship management adalah klasifikasi dan prediksi konsumen, dimana
perusahaan akan mengklasifikasi konsumen kedalam group yang memiliki pola perilaku yang
sama. Group tersebut dibagi berdasarkan konsumen yang membeli specific product atau
konsumen yang tidak membeli. Dengan informasi ini akan menciptakan varietas kesempatan
marketing untuk perusahaan seperti : one-one marketing, direct mailing, sales promotion via
telephone atau email. Data mining dapat mensupport dalam mengambil keputusan, data
mining menggunakan pemrosesan statistik canggih atau algoritma kecerdasan buatan untuk
menemukan tren dan pola yang berguna dari data yang diekstraksi sehingga dapat
menghasilkan wawasan penting termasuk model prediksi dan asosiasi yang dapat membantu
perusahaan memahami pelanggan mereka dengan lebih baik. Memeriksa dan menganalisis
data dapat mengubah data mentah menjadi informasi berharga tentang kebutuhan
pelanggan. Sebagai contoh, dihadapkan pada situasi yang semakin serius dalam pelanggan
yang bergejolak, perusahaan membutuhkan teknologi data mining untuk menganalisa
pengadukan agar dapat mengambil tindakan untuk mempertahankan pelanggan yang
berharga, dan mengurangi pelanggan yang bergejolak untuk menurunkan kerugian ekonomi.
Oleh karena itu klasifikasi dan prediksi pelanggan adalah dasar dari penerapan CRM. Dalam
jurnal ini mengambil kasus pada konsumen bank komersial yang ingin melakukan pengajuan
kartu kredit dan menggunakan klasifikasi decision tree karena implementasi nya mudah
diterapkan, dipelihara, dan mudah untuk dirancang. Klasifikasi decision tree berdasarkan
induksi decision tree sebelumnya ada beberapa algoritma dalam pembuatan decision tree
selain algoritma klasifikasi decision tree seperti algoritma HUNT, dll.

Hunt’s algorithm

Dalam algoritma Hunt, pohon keputusan tumbuh secara rekursif dengan mempartisi training
record menjadi subset yang lebih murni. Biarkan Dt menjadi serangkaian catatan training yang
terkait dengan simpul t dan y = {y1, y2, y3, ……, yc} menjadi label kelas. Berikut ini adalah
definisi rekursif dari algoritma Hunt.

1. Jika semua record dalam Dt memilik kelas yang sama dengan yt, maka t adalah
simpul daun yang dilabeli sebagai yt.
2. Jika Dt berisi catatan yang dimiliki lebih dari satu kelas, kondisi pengujian atribut
dipilih untuk mempartisi record menjadi subset yang lebih kecil. Simpul anak dibuat
untuk setiap hasil dari kondisi pengujian dan rekaman dalam Dt didistribusikan
kepada anak-anak berdasarkan hasil. Algoritma ini kemudian diterapkan secara
rekursif ke setiap node anak.

Data mining menyedia teknologi untuk menganalisa dalam jumlah data yang besar atau
mendeteksi pola yang tersembunyi di dalam data yang masih mentah kemudian diolah
menjadi sebuah informasi yang berguna jurnal ini berfokus pada penelitian klasifikasi
pelanggan dan prediksi dalam Customer relationship management (CRM) yang berkaitan
dengan data mining berdasarkan algoritma klasifikasi decision tree, yang telah mencoba untuk
mengoptimalkan proses bisnis. Penelitian ini akan membantu perusahaan untuk menganalisis
dan memperkirakan pola konsumsi pelanggan, serta dasar-dasar layanan dan manajemen
pemasaran. Meskipun jurnal ini berfokus pada industri perbankan, isu dan aplikasi yang
dibahas berlaku untuk industri lain, seperti industri asuransi, industri ritel, industri
manufaktur, dan sebagainya.

5. Judul Jurnal : An Approch to Classifcation of Image Using Neural Network & Wavelet
Transform

Pembahasan : jurnal ini membahas tentang metode klasifikasi dari texture gambar yang
berbeda dengan menggunakan neural network dan diskrit wavelet transform. Suatu teknik
pemrosesan gambar adalah hal yang sangat maju sekarang di mana berbagai bagian dari suatu
gambar diidentifikasi berdasarkan propertinya. Proses ini sangat penting dalam banyak hal
seperti identifikasi iris, otomasi industri, pemrosesan gambar biomedis, Pengambilan Gambar
Berbasis Isi, dan aplikasi sensoring jarak jauh dan sebagainya. Texture menjadi hal yang sangat
penting di berbagai area dari image processing. Klasifikasi texture selalu menjadi salah satu
masalah yang paling susah didalam image processing karena keseragaman, keteraturan,
kekasaran, dan properti lain dari berbagai pola tekstur. Langkah yang paling penting dalam
klasifikasi tekstur adalah mengekstrak fitur Namun, hambatan pertama terjadi ketika definisi
tekstur muncul. Tidak ada definisi universal karena banyaknya pola dalam tekstur alami dan
buatan. Langkah pertama dari analisis tekstur adalah identifikasi fitur yang tepat untuk
memaksimalkan diferensiasi tekstur untuk klasifikasi, segmentasi, dan pengenalan. Ada
berbagai teknik ekstraksi fitur dan klasifikasi yang telah diusulkan dan masih banyak lagi.
Mereka dapat dikategorikan ke dalam empat metode utama: metode statistik (metode co-
occurrence method), geometri (tessellation Voroni feature), dan metode berbasis model
(Markov random field), dan metode pemrosesan sinyal (filter Gabor, transformasi wavelet).
Metode yang lebih baru berdasarkan analisis multi-resolusi seperti transformasi wavelet telah
menerima banyak perhatian. Metode ini memberikan kerangka kerja yang tepat dan
menyatukan untuk analisis dan karakterisasi sinyal pada skala yang berbeda. Disimpulkan
bahwa tidak ada fitur tekstur yang secara konsisten lebih unggul untuk semua gambar, namun,
transformasi wavelet adalah yang terbaik untuk sebagian besar gambar. standard discrete
wavelet transform (DWT) adalah alat yang poweful untuk digunakan dan berhasil untuk
menyelesaikan banyak permasalahan didalam signal dan image processing. DWT membagi
gambar menjadi 4 sub-sampel. Hasil nya akan berisi dari satu gambar yang telah di high pass
di arah horizontal dan vertical(HH). DWT digunakan sebagai alat preprocessing dari neural
network.

 Neural network for classifier


Neural network sama dengan neural network yang pada manusia memberikan
keuntungan. Neural network menerima toleransi kesalahan dan mempunyai
kebiasaan dan kemampuan untuk belajar beradaptasi dengan siatuasi yang baru,
mempunyai kemampuan untuk menggeneralisasi berdasarkan data yang terbatas. Ini
muncul karena struktur yang memungkinkan jaring-jaring saraf memproses informasi
secara bersamaan, berlawanan dengan sifat serial komputer digital tradisional. Sifat
paralel ini, yang melekat pada jaringan saraf, mencapai peningkatan kecepatan
dengan mendistribusikan perhitungan di antara banyak neuron. Neural network
menyediakan level toleransi kesalahan yang mana mengijinkan terjadi nya kesalah
dengan batas yang telah ditentukan
 Feature Extraction–Discrete Wavelet Transform
Langkah yang paling penting didalam neural network adalah penggabungan antara
langkah pre-processing disebut dengan ekstrasi. Tujuan dari proses ini adalah untuk
memperoleh seperangkat primitif yang cukup mewakili gambar. Mengurangi depensi
pada karakteristik gambar seperti brightness, contrast, dll. Dan menciptakan data set
yang lebih kecil. Metode ekstraksi fitur yang baru-baru ini diusulkan adalah alat
analisis sinyal yang disebut dengan discrete wavelet transform (DWT) Informasi
frekuensi spasial yang dikandung DWT sangat ideal untuk mengklasifikasikan gambar-
gambar seperti tekstur. Ini dapat menggambarkan posisi phenomena DWT berisi
sebuah sekuens dari level resolusi, dan setiap level berisi lebih banyak informasi dari
lever paling bawah.
 Dwt With Neural Network
DWT dapat digunakan sebagai fitur ekstraktor sebelum neural network. Matriks
koefisien DWT adalah seperangkat fitur dari gambar asli. Empat jaringan yang berbeda
dapat dilatih pada level j = -1: LL, LH, HL, dan HH, dengan masing-masing jaringan
hanya menerima kuadran masing-masing dari matriks koefisien DWT sebagai input.
Pengurangan data dapat diperoleh jika tingkat resolusi yang lebih rendah digunakan.
Secara teori, jaringan dapat dilatih pada tingkat apa pun selama j ≤ 0, dengan
pengurangan rasio 4: l antara tingkat resolusi yang berdekatan. Mentransfer antara
level resolusi seharusnya tidak mengubah interpretasi gambar.

Metodologi yang digunakan dalam implemetasi algoritma neural network dan DWT adalah
sebuah analisi multi resolusi diterapkan pada tekstur gambar untuk mengekstrak satu set fitur
yang dapat dimengerti. Fitur-fitur yang diekstraksi berbentuk matriks koefisien DWT, yang
digunakan sebagai input dair ke empat neural network multilayer perceptron (MLP) yang
berbeda dan diklasifikasikan. Ini adalah langkah pengklasifikasi gambar dengan neural
network dan SWT

Image→DWT→Neural Network→classification VN ↔Database

 Classification Using Voting Network


Voting Network(VN) digunakan untuk membuat hasil klasifikasi global untuk sistem
empat neural network. Masing-masing dari empat jaringan pada tingkat resolusi yang
diberikan dapat dianggap sebagai hakim atau elemen voting dalam sistem, dengan
elemen keputusan final memilih hasil klasifikasi sistem. Keempat jaringan tersebut
dilatih secara terpisah dengan menggunakan matriks sub-koefisien DWT yang
berbeda pada tingkat resolusi j ≤ 0. Untuk setiap sampel pelatihan, hasil klasifikasi dari
sistem adalah output dari voting network. Jika setiap neural network mempunyai N
output atau klasifikasi, maka setiap kelas dapat di ranking dari 1 ke n. dengan
memberikan input tertentu ke sistem point yang dapat diberikan kepada setiap kelas
bergantung dari pada peringkat yang diberikan.

Pendekatan baru untuk analisis tekstur dan klasifikasi dengan neural network berdasarkan
discrete wavelet transform (DWT) memberikan kinerja yang baik dan akurasi dalam
pengklasifikasinya sangat baik. discrete wavelet transform (DWT) terbukti menjadi alat ekstrak
fitur terbaik. Penggunaan discrete wavelet transform (DWT) yang di gabungkan dengan
pemilihan yang tepat dengan koneksi lokal, sharing neural network topology, memberikan
skema pengklasifikasi tekstur yang powerful. Ditambah penggunaan Voting network yang
memanfaatkan semua informasi DWT pada tingkat resolusi yang diberikan, untuk
meningkatkan kinerja generalisasi sistem. Teknik yang diusulkan diverifikasi menggunakan
empat kelas gambar bertekstur visual serupa, dengan tingkat klasifikasi yang sukses di atas
95%.

Anda mungkin juga menyukai