Jelajahi eBook
Kategori
Jelajahi Buku audio
Kategori
Jelajahi Majalah
Kategori
Jelajahi Dokumen
Kategori
“ANALISIS MULTIVARIAT”
Disusun Oleh :
Kelompok 1 (satu)
Silvoni : 2010011111030
Jessy Jeray : 2010011111042
Rani Fadillah : 2010011111006
Mhd.Iqbal Suryandi : 2010011111024
Muhammad Irvan : 2010011111034
Bobi Hardiyan : 2010011111032
Irvan Roy : 19100111110
Kelas : EP.5.A
PADANG
2022
Analisis Multivariat
Analisis Multivariat adalah metode pengolahan variabel dalam jumlah yang
banyak, dimana tujuannya adalah untuk mencari pengaruh variabel-variabel tersebut
terhadap suatu obyek secara simultan atau serentak.
Multiple Logit Regression atau Multiple Logistic Regression atau Regresi logistik
Berganda
Regresi logistik Berganda adalah model regresi dimana satu variabel terikat non
metrik yang diprediksi atau diramalkan oleh beberapa variabel bebas berskala data metrik
atau non metrik. Teknik ini hampir sama dengan analisis diksriminan, hanya saja dalam
perhitungannya menggunakan prinsip perhitungan regresi seperti halnya regresi linear.
Berikut kami coba jelaskan satu persatu tentang jenis-jenis analisis interdependensi diatas.
Analisis Faktor
Analisis Faktor
Hasil rotasi ini akan mengakibatkan setiap variabel asal mempunyai korelasi tinggi
dengan faktor tertentu saja dan dengan faktor yang lain korelasi relatif rendah sehingga setiap
faktor akan lebih mudah untuk diinterpretasikan. Untuk mengetahui rotasi mana yang sesuai
digunakan Μ2min yang dihasilkan dari analisis procrustes.
Analisis procrustes adalah suatu teknik analisis yang digunakan untuk
membandingkan dua konfigurasi. Dalam hal ini konfigurasi data hasil analisis factor yang
sudah dirotasi dibandingkan dengan data asal. Sebelum kedua data dibandingkan terlebih
dahulu kedua data diproses berdasarkan penetapan dan penyesuaian posisi. Penetapan dan
penyesuaian dengan posisi dilakukan dengan transformasi yaitu transformasi translasi, rotasi
maupun dilasi yang dibuat sedemikian sehingga diperoleh jarak yang sedekat mungkin.
Setelah proses tersebut dilakukan dapat diketahui sejauh mana konfigurasi data analisis faktor
dapat menggambarkan data asal.
1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak menjadi sejumlah
variabel baru yang jumlahnya lebih sedikit dari variabel asal, dan variabel baru
tersebut dinamakan faktor atau variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antarvariabel penyusun faktor atau dimensi
dengan faktor yang terbentuk, dengan menggunakan pengujian koefisien korelasi
antar faktor dengan komponen pembentuknya. Analisis faktor ini disebut analisis
faktor konfirmatori.
3. Untuk menguji valisitas dan reliabilitas instrumen dengan analisis faktor konfirmatori.
4. Validasi data untuk mengetahui apakah hasil analisis faktor tersebut dapat
digeneralisasi ke dalam populasinya, sehingga setelah terbentuk faktor, maka peneliti
sudah mempunyai suatu hipotesis baru berdasarkan hasil analisis tersebut.
Perbedaan Analisis Komponen Utama (PCA) dan Analisis Faktor Konfirmatori (CFA)
Analisis faktor pada dasarnya dapat dibedakan secara nyata menjadi dua macam yaitu:
1. Analisis Faktor Eksploratori Atau Analisis Komponen Utama (PCA)
Analisis faktor eksploratori atau analisis komponen utama (PCA = principle
component analysis) yaitu suatu teknik analisis faktor di mana beberapa faktor yang
akan terbentuk berupa variabel laten yang belum dapat ditentukan sebelum analisis
dilakukan.
Pada prinsipnya analisis faktor eksploratori di mana terbentuknya faktor-faktor
atau variabel laten baru adalah bersifat acak, yang selanjutnya dapat diinterprestasi
sesuai dengan faktor atau komponen atau konstruk yang terbentuk. Analisis faktor
eksploratori persis sama dengan anlisis komponen utama (PCA).
Dalam analisis faktor eksploratori di mana peneliti tidak atau belum
mempunyai pengetahuan atau teori atau suatu hipotesis yang menyusun struktur
faktor-faktornya yang akan dibentuk atau yang terbentuk, sehingga dengan demikian
pada analisis faktor eksploratori merupakan teknik untuk membantu membangun teori
baru.
Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari
variabel asal atau variabel awal menjadi variabel baru atau faktor yang jumlahnya
lebih kecil dari pada variabel awal. Proses analisis tersebut mencoba untuk
menemukan hubungan antarvariabel baru atau faktor yang terbentuk yang saling
independen sesamanya, sehingga bisa dibuat satu atau beberapa kumpulan variabel
laten atau faktor yang lebih sedikit dari jumlah variabel awal yang bebas atau tidak
berkorelasi sesamanya. Jadi antar faktor yang terbentuk tidak berkorelasi sesamanya.
2. Analisis Faktor Konfirmatori (CFA)
Analisis faktor konfirmatori yaitu suatu teknik analisis faktor di mana secara apriori
berdasarkan teori dan konsep yang sudah diketahui dipahami atau ditentukan
sebelumnya, maka dibuat sejumlah faktor yang akan dibentuk, serta variabel apa saja
yang termasuk ke dalam masing-masing faktor yang dibentuk dan sudah pasti
tujuannya. Pembentukan faktor konfirmatori (CFA) secara sengaja berdasarkan teori
dan konsep, dalam upaya untuk mendapatkan variabel baru atau faktor yang mewakili
beberapa item atau sub-variabel, yang merupakan variabel teramati atau observerb
variable.
Pada dasarnya tujuan analisis faktor konfirmatori adalah: pertama untuk
mengidentifikasi adanya hubungan antar variabel dengan melakukan uji korelasi.
Tujuan kedua untuk menguji validitas dan reliabilitas instrumen. Dalam pengujian
terhadap validitas dan reliabilitas instrumen atau kuesioner untuk mendapatkan data
penelitian yang valid dan reliabel dengan analisis faktor konfirmatori.
Merumuskan masalah
Merumuskan masalah meliputi beberapa hal:
1. Tujuan analisis faktor harus diidentifikasi.
2. Variabel yang akan dipergunakan di dalam analisis faktor harus dispesifikasi
berdasarkan penelitian sebelumnya, teori dan pertimbangan dari peneliti.
3. Pengukuran variabel berdasarkan skala interval atau rasio.
4. Banyaknya elemen sampel (n) harus cukup atau memadai.
1. Korelasi matriks antar indikator: Metode yang pertama adalah memeriksa korelasi
matriks. Tingginya korelasi antara indikator mengindikasikan bahwa indikator-
indikator tersebut dapat dikelompokkan ke dalam sebuah indikator yang bersifat
homogen sehingga setiap indikator mampu membentuk faktor umum atau faktor
konstruk. Sebaliknya korelasi yang rendah antara indikator megindikasikan bahwa
indikator-indikator tersebut tidak homogen sehingga tidak mampu membentuk faktor
konstruk.
2. Korelasi parsial: Metode kedua adalah memeriksa korelasi parsial yaitu mencari
korelasi satu indikator dengan indikator lain dengan mengontrol indikator lain.
Korelasi parsial ini disebut dengan negative anti-image correlations.
3. Kaiser-Meyer Olkin (KMO) : Metode ini paling banyak digunakan untuk melihat
syarat kecukupan data untuk analisis faktor. Metode KMO ini mengukur kecukupan
sampling secara menyeluruh dan mengukur kecukupan sampling untuk setiap
indikator.
Ekstraksi faktor
Ekstraksi Faktor adalah suatu metode yang digunakan untuk mereduksi data dari
beberapa indikator untuk menghasilkan faktor yang lebih sedikit yang mampu menjelaskan
korelasi antara indikator yang diobservasi. Ada beberapa metode yang bisa digunakan untuk
melakukan ekstraksi faktor yaitu:
Interpretasikan Faktor
Setelah diperoleh sejumlah factor yang valid, selanjutnya kita perlu
menginterprestasikan nama-nama factor, mengingat factor merupakan sebuah konstruk dan
sebuah konstruk menjadi berarti kalau dapat diartikan. Interprestasi factor dapat dilakukan
dengan mengetahui variable-variabel yang membentuknya. Interprestasi dilakukan dengan
judgment. Karena sifatnya subjektif, hasil bisa berbeda jika dilakukan oleh orang lain.
1. Variabel surrogate adalah satu variable yang paling dapat mewakili satu factor. Misak
factor 1 terdiri dari variable X1, X2 dan X3. Maka yang paling mewakili factor 1
adalah variable yang memiliki factor loading terbesar. Apabila factor loading tertinggi
dalam satu factor ada yang hampir sama, missal X1 = 0,905 dan X2 = 0,904 maka
sebaiknya pemilihan surrogate variable ditentukan berdasarkan teori, yaitu variable
mana secara teori yang paling dapat mewakili factor. Atau cara lain adalah dengan
menggunakan Summated Scale.
2. Summated Scale adalah gabungan dari beberapa variable dalam satu factor, bisa
berupa nilai rata-rata dari semua factor tersebut atau nilai penjumlahan dari semua
variable dalam satu factor.
Tahapan secara grafik dapat anda lihat pada gambar “Framework Analisis Faktor” di atas!
Regresi Logistik
Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti
halnya regresi linear atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS)
regression. Perbedaannya adalah pada regresi logistik, peneliti memprediksi variabel terikat
yang berskala dikotomi. Skala dikotomi yang dimaksud adalah skala data nominal dengan
dua kategori, misalnya: Ya dan Tidak, Baik dan Buruk atau Tinggi dan Rendah.
Apabila pada OLS mewajibkan syarat atau asumsi bahwa error varians (residual)
terdistribusi secara normal. Sebaliknya, pada regresi ini tidak dibutuhkan asumsi tersebut
sebab pada regresi jenis logistik ini mengikuti distribusi logistik.
1. Regresi logistik tidak membutuhkan hubungan linier antara variabel independen dengan
variabel dependen.
2. Variabel independen tidak memerlukan asumsi multivariate normality.
3. Asumsi homokedastisitas tidak diperlukan
4. Variabel bebas tidak perlu diubah ke dalam bentuk metrik (interval atau skala ratio).
5. Variabel dependen harus bersifat dikotomi (2 kategori, misal: tinggi dan rendah atau baik dan
buruk)
6. Variabel independen tidak harus memiliki keragaman yang sama antar kelompok variabel
7. Kategori dalam variabel independen harus terpisah satu sama lain atau bersifat eksklusif
8. Sampel yang diperlukan dalam jumlah relatif besar, minimum dibutuhkan hingga 50 sampel
data untuk sebuah variabel prediktor (independen).
9. Dapat menyeleksi hubungan karena menggunakan pendekatan non linier log transformasi
untuk memprediksi odds ratio. Odd dalam regresi logistik sering dinyatakan sebagai
probabilitas.
Berikut persamaannya:
Sedangkan P Aksen adalah probabilitas logistik yang didapat rumus sebagai berikut:
(Perlu diingat bahwa exponen merupakan kebalikan dari logaritma natural. Sedangkan
logaritma natural adalah bentuk logaritma namun dengan nilai konstanta 2,71828182845904
atau biasa dibulatkan menjadi 2,72).
Dengan model persamaan di atas, tentunya akan sangat sulit untuk
menginterprestasikan koefisien regresinya. Oleh karena itu maka diperkenalkanlah istilah
Odds Ratio atau yang biasa disingkat Exp(B) atau OR. Exp(B) merupakan exponen dari
koefisien regresi. Jadi misalkan nilai slope dari regresi adalah sebesar 0,80, maka Exp(B)
dapat diperkirakan sebagai berikut:
1. Variabel bebas adalah Rokok: Kode 0 untuk tidak merokok, kode 1 untuk merokok.
2. Variabel terikat adalah kanker Paru: Kode 0 untuk tidak mengalami kanker paru, kode
1 untuk mengalami kanker paru.
Pseudo R Square
Perbedaan lainnya yaitu pada regresi ini tidak ada nilai “R Square” untuk mengukur besarnya
pengaruh simultan beberapa variabel bebas terhadap variabel terikat. Dalam regresi logistik dikenal
istilah Pseudo R Square, yaitu nilai R Square Semu yang maksudnya sama atau identik dengan R
Square pada OLS.
Jika pada OLS menggunakan uji F Anova untuk mengukur tingkat signifikansi dan seberapa
baik model persamaan yang terbentuk, maka pada regresi ini menggunakan Nilai Chi-Square.
Perhitungan nilai Chi-Square ini berdasarkan perhitungan Maximum Likelihood.
Dependent Variable: Y
Method: ML - Binary Logit (Quadratic hill climbing)
Date: 02/07/14 Time: 08:50
Sample: 1 35
Included observations: 35
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives
McFadden R-
squared 0.347378 Mean dependent var 0.628571
S.D. dependent var 0.490241 S.E. of regression 0.382841
Akaike info criterion1.032513 Sum squared resid 4.690151
Schwarz criterion 1.165828 Log likelihood -15.06897
Hannan-Quinn
criter. 1.078533 Restr. log likelihood -23.08991
LR statistic 16.04187 Avg. log likelihood -0.430542
Prob(LR statistic) 0.000329
Nah, mari kita interpretasi satu per satu output yang muncul.
1. Overall test:
Test ini dilakukan untuk mengetahui apakah secara bersama-sama variabel bebas
berpengaruh signifikan terhadap variabel tidak bebas atau minimal ada satu variabel
bebas yang berpengaruh signifikan terhadap variabel tak bebas. Uji ini mirip dengan
uji F pada analisis regresi linier berganda. Nilai uji ini dapat dilihat pada LR χ2 atau
bila menggunakan nilai p-value dapat dilihat pada item prob>chi2. Untuk lebih
mudahnya, dapat langsung kita lihat dengan menggunakan nilai p-value, dimana nilai
pob> χ2 menunjukkan angka 0.000. Nilai ini lebih kecil dari tingkat signifikansi uji
sebesar 0.05 sehingga kita dapat menolak hipotesis nol yang menyatakan bahwa tidak
ada variabel bebas yang berpengaruh signifikan terhadap variabel tak bebas. Dengan
demikian, maka dengan tingkat kepercayaan 95 persen dapat disimpulkan bahwa
minimal terdapat satu variabel bebas yang berepengaruh signifikan terhadap variabel
tak bebas.
2. Parsial Test
Test ini dilakukan untuk mengetahui pengaruh setiap variabel bebas terhadap variabel
tak bebas secara parsial. Uji ini mirip dengan uji t pada analisis regresi linier
berganda. Nilai uji ini dapat dilihat pada nilai z atau bila menggunakan nilai p-value
dapat dilihat pada item Sig. Agar lebih mudah, kali ini kita akan menggunakan nilai
Sig. Untuk variabel T nilai Sig. adalah 0.072. Nilai ini lebih besar dari nilai
signifikansi uji sebesar 0.05 sehingga gagal menolah H0 yang menyatakan bahwa
variabel T tidak berpengaruh signifikan terhadap variabel Y. Sehingga dengan tingkat
kepercayaan 95 persen dapat disimpulkan bahwa variabel T tidak berpengaruh
signifikan terhadap variabel Y. Sementara itu, untuk variabel D, mepunyai nilai Sig
sebesar 0.009. Nilai ini lebih kecil dari nilai signifikansi uji sebesar 0.05 sehingga H0
yang menyatakan bahwa variabel T tidak berpengaruh signifikan terhadap variabel Y
bisa ditolak. Sehingga dengan tingkat kepercayaan 95 persen dapat disimpulkan
bahwa variabel D berpengaruh signifikan terhadap variabel Y.
3. Pseudo R-Square
Nilai ini disebut Pseudo R-square karena dihitung berbeda dengan penghitungan R-
square pada analisis regresi berganda atau analisis regresi sederhana. SPSS secara
default menghitung nilai R-Square pada regresi logistik dengan menggunakan
formula Nagelkerke R-squared. Pembacaannya sama seperti pembacaan nilai R-
squared pada analisis regresi berganda/sederhana. Nilai pseudo R-squared pada model
ini adalah 0.502 artinya 50,2 persen variasi yang terjadi pada Y dapat dijelaskan oleh
variabel dalam model, sedangkan sisanya dijelaskan oleh variabel lain di luar model.
4. Interpretasi
Tidak seperti pada analisis regresi linier berganda/sederhana, interpretasi pada analisis
regresi logistik tidak dapat langsung dibaca melalui nilai koefisiennya. Untuk dapat
diinterpretasikan, terlebih dahulu nilai koefisien setiap variabel harus di-eksponensial-
kan. Untuk variabel T, nilai exp(b) adalah 0.190 sedangkan nilai exp(b) dari variabel
D adalah 1.071.
Setelah diperoleh nilai exp(b) atau yang lebih dikenal dengan odds ratio, maka
model akan siap diinterpretasi. Interpretasi antara variabel bebas kuantitatif akan
berbeda dengan variabel bebas kualitatif. Untuk variabel bebas kuantitatif akan dibaca
semakin besar atau semakin kecil (tergantung tanda) sedangkan untuk variabel
kualitatif akan dibaca sebagai tingkat perbandingannya.
Untuk variabel D: semakin lama durasi operasi seseorang, maka peluang
untuk mengalami sore throat setelah operasi akan semakin meningkat.
Untuk variabel T: kecenderungan seseorang yang memakai tracheal tube
untuk mengalami sore throat adalah 0.190 kali dibanding pasien yang menggunakan
laryngeal mask airway.
Berikut merupakan hasil outputnya
Untuk model logit tidak menggunakan t hitung (t stat) lagi, tapi menggunakan z
hitung (z Stat) untuk melihat tingkat signifikannya.
untuk melihat keseuaian model digunkan likelihood ratio dan untuk intepretasi
hasilnya kita tidak boleh langsung mengintepretasikan dengan koefisien betha, tapi
harus menggunakan odd ratio.. nilai odd ratio dapat di cari dengan menggunakan
excel dengan rumus =2,72^nilai koefisien. itu artinya nilai e=2,72 dipangkatkan
dengan masing-masing nilai koefisien betha
Hasil perhitungan dengan menggunakan Excel
Persamaan Diskriminan
Persamaan Fungsi Diskriminan yang dihasilkan untuk memberikan peramalan yang
paling tepat untuk mengklasifikasi individu kedalam kelompok berdasarkan skor variabel
bebas.
Jika kita bandingkan dengan regresi linier, maka analisis ini merupakan kebalikannya.
Pada regresi linier, variabel respon yang harus mengikuti distribusi normal dan
homoskedastis, sedangkan variabel penjelas diasumsikan fixed, artinya variabel penjelas tidak
disyaratkan mengikuti sebaran tertentu. Untuk analisis diskriminan, variabel penjelasnya
seperti sudah disebutkan di atas harus mengikuti distribusi normal dan homoskedastis,
sedangkan variabel responnya fixed.
Jika signifikansi > 0,05 maka tidak ada perbedaan dalam kelompok
Jika signifikansi < 0,05 maka ada perbedaan dalam kelompok
Semua variabel di atas nilai sig < 0,05, maka ketiga variabel memberikan perbedaan pada
pengambilan keputusan (Y).
Tabel Homogenitas Covariance
NB: jika tidak terpenuhinya asumsi ini dapat dilakukan eksplorasi data untuk melihat
kemungkinan ada tidaknya outlier data.
Analisis Diskriminan SPSS Wilk’s Lambda: interprestasi output analisis diskriminan dengan
SPSS
Tabel di atas menunjukkan perubahan nilai lambda dan nilai uji F dalam tiap tahap. Sampai
tahap 3 nilai Sig tetap < 0,05, maka sampai tahap 3 variabel bebas masuk semua dalam
model.
Angka signifikansi untuk 3 variabel sebesar 0,000 dengan nilai F 235,829 pada tahap
satu dan pada tahap 3 signifikansi sebesar 0,000 dengan nilai F 175.397. Karena nilai
signifikansi 0,000 (< 0,05) maka variabel masing-masing kelompok mempunyai perbedaan
yang signifikan.
Dari tabel di atas, diperoleh nilai canonical correlation sebesar 0,854 bila di
kuadratkan (0,854 x 0,854) = 0.7293, artinya 72,93% varians dari variabel independen
(kelompok) dapat dijelaskan dari model diskriminan yang terbentuk.
Nilai korelasi kanonikal menunjukan hubungan antara nilai diskriminan dengan
kelompok. Nilai sebesar 0,854 berarti hubungannya sangat tinggi karena mendekati angka 1
(besarnya korelasi antara 0-1).
Uji Diskriminan
Tabel Canonical Discriminat Function Coefficients di atas menunjukkan fungsi diskriminan
dengan persamaan sebagai berikut : Z score = -6,045 (konstan) + 0,037 X1 + 0,042 X2 +
0,042 X3. Fungsi ini berguna untuk menganalisis kasus atau responden yang diteliti akan
termasuk ke dalam kelompok mana, yaitu kelompok pertama (keputusan 0) atau kedua
(keputusan 1).
Berdasarkan angka tabel di atas, terdapat dua kelompok yang berbeda yaitu kelompok
dengan keputusan 0 dengan centroid (rata-rata kelompok) negatif dan kelompok yang
keputusan 1 dengan centroid (rata-rata kelompok) positif.
Sementara itu, 105 responden (97,2%) yang berada dikelompok “keputusan 1” dan
ada 3 responden (2,8%) berpindah ke kelompok keputusan 0”.
Maka Ketepatan fungsi diskriminan dapat dihitung dengan cara: 86 + 105/200 = 0.955
atau 95,5 %.
Kesimpuan Hipotesis Uji Diskriminan
Kesimpulan hasil uji diskriminan dalam tutorial ini adalah:
Analisis Cluster
Sama dengan analisis factor, analisis cluster (cluster analysis) termasuk pada Interdependes
Techniques. Namun ada perbedaan mendasar di antara kedua alat analisis multivariate ini.
Jika analisis factor (R factor analysis) bertujuan mereduksi variabel, analisis cluster (Q factor
analysis) lebih bertujuan mengelompokkan isi variabel, walaupun bisa juga disertai dengan
pengelompokan variabel. Dalam terminology SPSS, analisis factor adalah perlakuan terhadap
kolom, sedangkan analisis cluster adalah perlakuan terhadap baris.
Eksplorasi data peubah ganda, reduksi data, stratifikasi sampling, prediksi keadaan obyek.
Hasil dari analisis cluster dipengaruhi oleh: obyek yang diclusterkan, peubah yang diamati,
ukuran kemiripan (jarak) yang dipakai, skala ukuran yang dipakai, serta metode
pengclusteran yang digunakan.
Tahap 1:
Tahap 2:
Membuat cluster.
Metode dalam membuat cluster ada banyak sekali, seperti yang digambarkan dalam diagram
di bawah ini:
Kluster Hirarki
Dalam metode hirarki cluster terdapat dua tipe dasar yaitu agglomerative
(pemusatan) dan divisive (penyebaran). Dalam metode agglomerative, setiap obyek
atau observasi dianggap sebagai sebuah cluster tersendiri. Dalam tahap selanjutnya,
dua cluster yang mempunyai kemiripan digabungkan menjadi sebuah cluster baru
demikian seterusnya. Sebaliknya, dalam metode divisive kita beranjak dari sebuah
cluster besar yang terdiri dari semua obyek atau observasi. Selanjutnya, obyek atau
observasi yang paling tinggi nilai ketidakmiripannya kita pisahkan demikian
seterusnya.
Agglomerative
Dalam agglomerative ada lima metode yang cukup terkenal, yaitu: Single
Linkage, Complete Linkage, Average Linkage, Ward’s Method, Centroid Method.
Single Linkage, prosedur ini didasarkan pada jarak terkecil. Jika dua obyek
terpisah oleh jarak yang pendek maka kedua obyek tersebut akan digabung
menjadi satu cluster daan demikian saterusnya.
Complete Linkage, berlawanan dengan Single Linkage prosedur ini
pengelompokkannya berdasarkan jarak terjauh.
Average Linkage, prosedure ini hampir sama dengan Single Linkage
maupun Complete Linkage, namun kriteria yang digunakan adalah rata-
rata jarak seluruh individu dalam suatu cluster dengan jarak seluruh
individu dalam cluster yang lain.
Ward’s Method, jarak antara dua cluster dalam metode ini
berdasarkan total sum of square dua cluster pada masing-masing variabel.
Centroid Method, jarak antara dua cluster dalam metode ini berdasarkan
jarak centroid dua cluster yang bersangkutan.
Non-Hirarchial Methode
Berbeda dengan metode hirarki, metode ini justru dimulai dengan terlebih dahulu
jumlah cluster yang diinginkan (dua cluster, tiga cluster atau yang lain). Setelah
jumlah cluster diketahui, baru proses cluster dilakukan tanpa mengikuti proses
hirarki. Metode ini biasa disebut dengan K-Means Cluster.