Anda di halaman 1dari 11

Algoritma K-Medoids

ADE YUSUPA P31.2011.00983

Definisi
Pengelompokan merupakan proses mengumpulkan beberapa objek ke dalam kelompok sehingga setiap objek dalam satu kelompok mirip namun tidak mirip dengan kelompok yang lain. Banyak algoritma clustering yang telah dikembangkan, seperti K-MEDOIDS, CLARANS, BIRCH, CURE, DBSCAN, OPTICS, STING and CLIQUE.

Definisi K-Medoids
K-Medoids adalah algoritma yang masih berkaitan dengan algoritma K-Means. K-Medoids merupakan versi umum dari algoritma K-Means yang dapat bekerja dengan mengukur jarak dan mempunyai komputasi yang lebih intensif. Baik algoritma K-Means dan K-Medoids sama-sama patisional (memecah dataset menjadi kelompok-kelompok) dan keduanya berusaha untuk meminimalkan squared error, jarak antara titik berlabel yang berada dalam cluster dan titik yang ditunjuk sebagai pusat cluster itu. Yang membedakan dengan K-Means adalah K-Medoids memilih datapoint sebagai pusatnya (medoid atau eksemplar)

Medoid dianggap sebagai sebuah objek cluster yang perbedaan rata-rata untuk semua objek dalam cluster adalah minimal.

Perkembangan
K-Medoids pertama kali diperkenalkan oleh Park dan Jun pada tahun 2009. Park dan Jun menawarkan algoritma KMedoids dimana menurut penelitiannya algoritma ini menghasilkan kinerja yang baik dibandingkan K-Mean dan dengan waktu yang lebih cepat.

Tahapan
Inisialisasi: memilih objek k secara acak yang akan berfungsi sebagai medoids. Mengasosiasikan setiap titik data dengan medoid yang paling serupa dengan menggunakan ukuran jarak dan menghitung biaya. Secara acak memilih objek k baru yang akan berfungsi sebagai medoid dan menyimpan salinan dari set asli. Gunakan set medoids baru untuk menghitung ulang biaya. Jika biaya yang baru lebih besar dari pada biaya lama kemudian hentikan algoritma tersebut. Ulangi langkah kedua hingga kelima sampai tidak ada perubahan dalam medoid

Kelebihan
Lebih kuat dari pada K-Means dihadapan noise dan outliers, karena medoid kurang dipengaruhi oleh outliers atau nilai-nilai ekstrim yang lain dari pada sebuah mean.

Kelemahan
Jika jumlah data tidak banyak, pengelompokan awal akan menentukan cluster secara signifikan. Hasilnya adalah bentuk cluster yang melingkar. Jumlah cluster K, harus ditentukan terlebih dahulu. Pemilihan K adalah masalah itu sendiri dan terkadang sulit untuk memprediksi terlebih dahulu jumlah cluster yang akan ada dalam data. Tidak diketahui cluster nyata, menggunakan data yang sama, jika dimasukkan dalam urutan yang berbeda dapat menghasilkan cluster yang berbeda jika jumlah data sedikit.

Kelemahan
Percobaan telah menunjukkan bahwa outlier dapat menjadi masalah dan dapat memaksa algoritma untuk mengidentifikasi kelompok palsu. Tidak pernah diketahui mana atribut yang berkontribusi lebih untuk proses pengelompokan karena diasumsikan bahwa masing-masing atribut memiliki berat yang sama.

Kesimpulan
Versi umum dari algoritma K-Means Komputasi jauh lebih mahal dari pada K-Means Berlaku ketika berhadapan dengan data kategorikal Berlaku apabila titik data tidak tersedia, tetapi hanya jarak pair-wise yang tersedia Konvergen untuk lokal minimum