Anda di halaman 1dari 30

TUGAS KELOMPOK METODE PENELITIAN EKONOMI

“ANALISIS MULTIVARIAT”

Dosen : Dr. Erni Febrina Harahap S.E, M.Si

Disusun Oleh :

Kelompok 1 (satu)

 Silvoni : 2010011111030
 Jessy Jeray : 2010011111042
 Rani Fadillah : 2010011111006
 Mhd.Iqbal Suryandi : 2010011111024
 Muhammad Irvan : 2010011111034
 Bobi Hardiyan : 2010011111032
 Mhd. Afif Agnia : 2010011111004
 Irvan Roy : 19100111110

Kelas : EP.5.A

PRODI EKONOMI PEMBANGUNAN

FAKULTAS EKONOMI DAN BISNIS

UNIVERSITAS BUNG HATTA

PADANG

2022
Analisis Multivariat
Analisis Multivariat adalah metode pengolahan variabel dalam jumlah yang
banyak, dimana tujuannya adalah untuk mencari pengaruh variabel-variabel tersebut
terhadap suatu obyek secara simultan atau serentak.

Pengertian Analisis Multivariat


Metode analisis multivariat adalah suatu metode statistika yang tujuan digunakannya
adalah untuk menganalisis data yang terdiri dari banyak variabel serta diduga
antar variabel tersebut saling berhubungan satu sama lain. Analisis multivariat adalah salah
satu dari teknik statistik yang diterapkan untuk memahami struktur data dalam dimensi
tinggi. Dimana variabel-variabel yang dimaksud tersebut saling terkait satu sama lain.
Berdasarkan beberapa definisi Analisis Multivariat di atas, maka statistikian
menyimpulkan bahwa yang dimaksud dengan Analisis Multivariat adalah suatu analisis yang
melibatkan variabel dalam jumlah lebih dari atau sama dengan 3 variabel. Dimana minimal
ada satu variabel terikat dan lebih dari satu variabel bebas serta terdapat korelasi atau
keterikatan antara satu variabel dengan variabel lainnya. Maka dapat diartikan bahwa
Analisis Multivariat juga merupakan analisis yang melibatkan cara perhitungan yang
kompleks. tujuannya adalah agar dapat memahami struktur data berdimensi tinggi dan saling
terkait satu sama lain.

Teori Analisis Multivariat


Teori dari Metode analisis multivariat dalam hal ini sebenarnya telah diketahui sejak
lama sekali, hanya saja karena cara perhitungannya yang rumit maka jarang sekali diterapkan.
Tetapi akhir-akhir ini, bersamaan dengan berkembangnya teknologi. Dimana muncul aplikasi
komputer seperti SPSS untuk menghitung atau menganalisis metode statistik dengan
mudah. Maka barulah Analisis Multivariat ini sering digunakan oleh para peneliti karena
kemudahan-kemudahan yang diberikan oleh aplikasi komputer dan banyaknya informasi
yang bisa didapat dari Analisis Multivariat ini.
Statistikian juga berpendapat bahwa telah sering terjadi kesalah pahaman yang
mendasar dari para mahasiswa atau bahkan para peneliti. Yaitu tentang definisi Analisis
Multivariat, yaitu kerancuan dalam memahami perbedaan antara Analisis Multivariat dan
analisis multiple. Perlu dipahami dan diperhatikan, bahwa pengertian Analisis Multivariat
benar-benar berbeda dengan analisis multiple atau disebut juga analisis multivariabel. Kalau
tentang Analisis Multivariat sudah dibahas di atas, saatnya kita coba kupas tentang analisis
multivariabel.

Perbedaan Dengan Analisis Multivariabel


Analisis multivariabel adalah analisis yang melibatkan lebih dari satu variabel bebas.
Dalam pengertian tersebut, kita tidak perlu mengetahui apakah di antara beberapa variabel
tersebut, baik variabel bebas maupun variabel terikat terdapat keterikatan atau korelasi satu
sama lain. Maka statistikian dapat menyimpulkan perbedaan antara Analisis Multivariat dan
analisis multivariabel, yaitu: Analisis Multivariat pastilah analisis multivariabel, sedangkan
analisis multivariabel belum tentu Analisis Multivariat.
Pengertian Variat
Titik penyusun bangunan atau pondasi dari Analisis Multivariat adalah variat itu
sendiri. Variat adalah suatu kombinasi linear dari variabel-variabel yang memiliki bobot
empiris yang telah ditentukan.
Suatu variat dari sejumlah n variabel yang terbobot (X1 sampai dengan Xn)  dapat
dinyatakan secara matematis adalah sebagai berikut: nilai variate = w1X1+ w2X2+ w3X3+…
+wnXn.
Sebelum melangkah lebih jauh, penting sekali bagi para pembaca, bahwa Analisis
Multivariat adalah salah satu bentuk dari analisis inferensial. Analisis inferensial artinya
analisis yang melibatkan sejumlah sampel saja. Dan dimana hasilnya nanti digunakan sebagai
alat generalisasi untuk keseluruhan populasi. Oleh karena itu, nantinya dalam Analisis
Multivariat tidak akan lepas dari istilah-istilah signifikansi dan juga tingkat kesalahan dan
derajat kepercayaan.

Jenis Data Dalam Analisis Multivariat


Seperti halnya analisis statistik lainnya, Analisis Multivariat yang kita bahas ini juga
tidak lepas dari jenis data atau skala data. Skala data yang digunakan ada dua macam, yaitu
data metrik dan data non metrik. Data metrik adalah data yang bersifat numerik atau berisi
angka-angka dan dapat dilakukan perhitungan matematis di dalamnya, misalnya nilai ujian,
tingkat IQ, berat badan, dll.
Data metrik disebut juga dengan data numerik atau data kuantitatif. Dalam hal ini data
metrik ada 2 macam, yaitu data interval dan data rasio. Sedangkan data non metrik adalah
data non numerik atau disebut juga data kualitatif atau data kategorik.
Ada dua macam jenis data non metrik ini, yaitu data nominal dan data ordinal.

Klasifikasi Analisis Multivariat


Klasifikasi analisis multivariat ada tiga macam, yaitu yang pertama adalah teknik
dependensi atau istilah english versionnya adalah dependent technique, yang kedua adalah
teknik interdependensi atau english versionnya adalah interdependent technique, dan yang
ketiga atau yang terakhir adalah dan model struktural atau english versionnya disebut dengan
istilah structural model.
Para pakar ada yang menyebutkan bahwa Analisis Multivariat hanya dikelompokkan
ke dalam 2 klasifikasi saja, yaitu analisis dependensi dan analisis interdependensi. Menurut
statistikian, tidak ada masalah tentang perbedaan ini, sebab para pakar yang berpendapat
bahwa ada dua klasifikasi, telah memasukkan Model Struktural atau struktural equation
modelling sebagai bagian dari klasifikasi analisis dependensi.

Teknik Dependensi Analisis Multivariat


Teknik Dependensi Analisis Multivariat adalah suatu metode Analisis Multivariat
dimana variabel atau kumpulan variabel yang diidentifikasi sebagai variabel dependen atau
variabel terikat dapat diprediksi atau dijelaskan oleh variabel lain yang merupakan variabel
independen atau variabel bebas.
Analisis dependensi berfungsi untuk menerangkan atau memprediksi variabel terikat
dengan menggunakan dua atau lebih variabel bebas.
Sehingga berdasarkan pengertian di atas, maka analisis yang termasuk di dalam
klasifikasi analisis dependensi antara lain: analisis regresi linear berganda atau multiple linear
regression, analisis diskriminan atau discriminant analysis, analisis varian multivariate
(MANOVA), dan analisis korelasi kanonikal atau canonical correlations.

Jenis-Jenis Analisis Dependensi


Berikut kami tampilkan jenis-jenis analisis dependensi dalam bentuk tabel beserta skala data
dan jumlah variabel yang dianalisis:

Teknik Dependensi Analisis Multivariat

Dari tabel diatas, dapat kami jelaskan bahwa :


Regresi linear dan regresi logistik digunakan jika jumlah variabel dependen ada 1.
Perbedaannya adalah, regresi linear digunakan jika skala data variabel terikat adalah metrik.
Sedangkan regresi logistik, skala data variabel terikat adalah non metrik.
Analisis diskriminan juga melibatkan satu variabel terikat, namun sama halnya
dengan regresi logistik, skala data variabel terikat adalah data non metrik. Analisis
diskriminan lebih dekat dengan regresi linear dari pada regresi logistik, sebab analisis
diskriminan mewajibkan variabel bebas yang berskala data numerik haruslah berdistribusi
normal.

Perbedaan Analisis Konjoin dengan Regresi Logistik

Sedangkan regresi logistik tidak mewajibkan asumsi tersebut. Analisis konjoin hampir


sama dengan analisis diskriminan, namun pada analisis konjoin, semua data yang digunakan
adalah data non metrik.
Analisis Kanonikal lebih mirip dengan analisis diskriminan, hanya saja jumlah
variabel terikat yang digunakan lebih dari satu. Sedangkan MANOVA lebih mirip dengan
analisis kanonikal, dimana perbedannya adalah pada MANOVA atau yang biasa disebut
dengan Multivariate Analysis of Variance menggunakan data non metrik pada variabel bebas.
Agar anda lebih paham lagi, kami jelaskan beberapa pengertian tentang analisis
dependensi yang sudah disebutkan di atas.
Multiple Linear Regression atau Regresi Linear Berganda
Regresi Linear Berganda adalah metode analisis ini bertujuan menguji hubungan
antara dua variabel bebas atau lebih dan satu variabel terikat.

Multiple Discriminant Analysis atau Analisis Diskriminan Berganda


Analisis Diskriminan Berganda adalah suatu teknik statistika yang bertujuan untuk
memprediksi atau meramalkan probabilitas dari objek yang termasuk ke dalam dua atau lebih
kategori mutual yang eksklusif pada variabel terikat yang berdasarkan pada beberapa variabel
bebas.
Asumsi dari analisis Diskriminan Berganda adalah adalah variabel bebas harus berupa
data metrik dan berdistribusi normal. Silahkan pelajari lebih jauh tentang Analisis
Diskriminan.

Multiple Logit Regression atau Multiple Logistic Regression atau Regresi logistik
Berganda
Regresi logistik Berganda adalah model regresi dimana satu variabel terikat non
metrik yang diprediksi atau diramalkan oleh beberapa variabel bebas berskala data metrik
atau non metrik. Teknik ini hampir sama dengan analisis diksriminan, hanya saja dalam
perhitungannya menggunakan prinsip perhitungan regresi seperti halnya regresi linear.

Multivariate Analysis of Variance (MANOVA)


Suatu teknik statistik yang menyediakan suatu uji signifikansi simultan perbedaan
rata-rata antara kelompok-kelompok untuk dua atau lebih variabel dependen.

Conjoint Analysis atau Analisis Konjoin


Analisis Konjoin adalah sebuah teknik statistik yang bertujuan untuk memahami
preferensi responden terhadap suatu produk atau jasa. Analisis ini juga dikenal dengan istilah
english versionnya sebagai trade off analysis.

Canonical Correlation atau Korelasi Kanonikal


Korelasi Kanonikal adalah bentuk pengembangan dari analisis regresi linear
berganda. Tujuan dari analisis korelasi kanonikal adalah untuk mengkorelasikan secara
simultan beberapa variabel terikat dengan beberapa variabel bebas.
Perbedaannya dengan regresi linear berganda adalah: regresi linear berganda hanya
menggunakan satu variabel terikat dengan beberapa variabel bebas. Sedangkan pada korelasi
kanonikal ini menggunakan beberapa variabel terikat yang akan dikorelasikan dengan
variabel bebas.

Teknik Interdependensi Analisis Multivariat


Teknik Interdependensi Analisis Multivariat adalah Analisis Multivariat yang
melibatkan analisis secara serentak dari semua variabel dalam satu kumpulan, tanpa
membedakan antara variabel yang terikat ataupun variabel yang bebas.
Teknik analisis interdependensi berguna dalam memberikan makna terhadap
sekelompok variabel atau membuat kelompok kelompok secara bersama-sama.
Jenis Analisis Interdependensi
Berikut kami tampilkan jenis analisis interdependensi menggunakan tabel:

Teknik Interdependensi Analisis Multivariat

Berikut kami coba jelaskan satu persatu tentang jenis-jenis analisis interdependensi diatas.

Factor Analysis atau Analisis Faktor


Analisis faktor adalah sebuah teknik statistika untuk menganalisis struktur dari
hubungan timbal balik diantara sejumlah besar variabel yang bertujuan untuk menentukan
kumpulan faktor dari common underlying dimensions.
Dalam analisis faktor ada dua jenis analisis, yaitu Principal Components Analysis atau
PCA dan Common Factor Analysis. Silahkan pelajari lebih detail di artikel kami: Analisis
Faktor.

Cluster Analysis atau Analisis Kluster


Analisis Kluster adalah sebuah teknik statistika yang bertujuan untuk
mengelompokkan sekumpulan objek  sehingga setiap objek tersebut mirip dengan objek yang
lainnya dalam suatu gugusan atau kluster dan berbeda  dari objek yang berada pada semua
gugusan lainnya.
Dalam analisis kluster, ada dua jenis analisis, yaitu analisis kluster hirarki dan analisis
kluster non hirarki.

Multidimensional Scaling atau Penskalaan Multi Dimensi


Multidimensional Scaling adalah sebuah teknik statistika yang bertujuan dalam
mengukur objek pada skala multidimensi yang berdasarkan pada keputusan dari responden
terhadap kesamaan objek.

Correspondence Analysis atau Analisis Korespondensi


Analisis Korespondensi adalah suatu teknik statistika yang menggunakan data-data
non metrik dan bertujuan untuk melakukan evaluasi terhadap hubungan linear atau hubungan
non linear. Dimana langkah tersebut sebagai bentuk usaha dalam mengembangkan perceptual
map yang menggambarkan asosiasi atau hubungan antara objek dengan seperangkat
karakteristik deskriptif dari objek tersebut.
Teknik Model Struktural Atau Structural Model Analisis Multivariat
Teknik yang terakhir ini, yaitu Teknik Model Struktural adalah sebuah teknik yang
yang mencoba menganalisis hubungan secara simultan variabel dependen dan independen
secara bersamaan. Model seperti ini dikenal dengan istlah model persamaan struktural atau
english versionnya adalah Structural Equation Model dan biasa disingkat dengan SEM.
Kelebihan SEM adalah dapat meneliti hubungan antara beberapa kelompok variabel
secara bersamaan atau serentak. Baik variabel bebas maupun variabel terikat. Bahkan metode
ini juga dapat menggabungkan adanya variabel laten. Variabel laten dalam hal ini adalah
variabel yang sebenarnya keberadaannya tidak dapat diukur secara langsung ke dalam
analisis.

Analisis Faktor

Definisi Analisis Factor


Analisis faktor adalah sebuah teknik yang digunakan untuk mencari faktor-faktor
yang mampu menjelaskan hubungan atau korelasi antara berbagai indikator independen yang
diobservasi.
Analisis faktor merupakan perluasan dari analisis komponen utama. Digunakan juga
untuk mengidentifikasi sejumlah faktor yang relatif kecil yang dapat digunakan untuk
menjelaskan sejumlah besar variabel yang saling berhubungan. Sehingga variabel-variabel
dalam satu faktor mempunyai korelasi yang tinggi, sedangkan korelasi dengan variabel-
variabel pada faktor lain relatif rendah. Tiap-tiap kelompok dari variabel mewakili suatu
konstruksi dasar yang disebut faktor. Untuk meningkatkan daya interpretasi faktor, harus
dilakukan transformasi pada matriks loading. Transformasi dilakukan dengan merotasi
matriks tersebut dengan metode varimax, quartimax, equamax, quartimin, biquartimin dan
covarimin serta oblimin.

Analisis Faktor

Hasil rotasi ini akan mengakibatkan setiap variabel asal mempunyai korelasi tinggi
dengan faktor tertentu saja dan dengan faktor yang lain korelasi relatif rendah sehingga setiap
faktor akan lebih mudah untuk diinterpretasikan. Untuk mengetahui rotasi mana yang sesuai
digunakan Μ2min yang dihasilkan dari analisis procrustes.
Analisis procrustes adalah suatu teknik analisis yang digunakan untuk
membandingkan dua konfigurasi. Dalam hal ini konfigurasi data hasil analisis factor yang
sudah dirotasi dibandingkan dengan data asal. Sebelum kedua data dibandingkan terlebih
dahulu kedua data diproses berdasarkan penetapan dan penyesuaian posisi. Penetapan dan
penyesuaian dengan posisi dilakukan dengan transformasi yaitu transformasi translasi, rotasi
maupun dilasi yang dibuat sedemikian sehingga diperoleh jarak yang sedekat mungkin.
Setelah proses tersebut dilakukan dapat diketahui sejauh mana konfigurasi data analisis faktor
dapat menggambarkan data asal.

Tujuan Analisis Faktor


Tujuan utama analisis faktor adalah untuk menjelaskan struktur hubungan di antara
banyak variabel dalam bentuk faktor atau vaiabel laten atau variabel bentukan. Faktor yang
terbentuk merupakan besaran acak (random quantities) yang sebelumnya tidak dapat diamati
atau diukur atau ditentukan secara langsung. Selain tujuan utama tersebut, terdapat tujuan
lainnya adalah:

1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak menjadi sejumlah
variabel baru yang jumlahnya lebih sedikit dari variabel asal, dan variabel baru
tersebut dinamakan faktor atau variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antarvariabel penyusun faktor atau dimensi
dengan faktor yang terbentuk, dengan menggunakan pengujian koefisien korelasi
antar faktor dengan komponen pembentuknya. Analisis faktor ini disebut analisis
faktor konfirmatori.
3. Untuk menguji valisitas dan reliabilitas instrumen dengan analisis faktor konfirmatori.
4. Validasi data untuk mengetahui apakah hasil analisis faktor tersebut dapat
digeneralisasi ke dalam populasinya, sehingga setelah terbentuk faktor, maka peneliti
sudah mempunyai suatu hipotesis baru berdasarkan hasil analisis tersebut.

Perbedaan Analisis Komponen Utama (PCA) dan Analisis Faktor Konfirmatori (CFA)
Analisis faktor pada dasarnya dapat dibedakan secara nyata menjadi dua macam yaitu:
1. Analisis Faktor Eksploratori Atau Analisis Komponen Utama (PCA)
Analisis faktor eksploratori atau analisis komponen utama (PCA = principle
component analysis) yaitu suatu teknik analisis faktor di mana beberapa faktor yang
akan terbentuk berupa variabel laten yang belum dapat ditentukan sebelum analisis
dilakukan.
Pada prinsipnya analisis faktor eksploratori di mana terbentuknya faktor-faktor
atau variabel laten baru adalah bersifat acak, yang selanjutnya dapat diinterprestasi
sesuai dengan faktor atau komponen atau konstruk yang terbentuk. Analisis faktor
eksploratori persis sama dengan anlisis komponen utama (PCA).
Dalam analisis faktor eksploratori di mana peneliti tidak atau belum
mempunyai pengetahuan atau teori atau suatu hipotesis yang menyusun struktur
faktor-faktornya yang akan dibentuk atau yang terbentuk, sehingga dengan demikian
pada analisis faktor eksploratori merupakan teknik untuk membantu membangun teori
baru.
Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari
variabel asal atau variabel awal menjadi variabel baru atau faktor yang jumlahnya
lebih kecil dari pada variabel awal. Proses analisis tersebut mencoba untuk
menemukan hubungan antarvariabel baru atau faktor yang terbentuk yang saling
independen sesamanya, sehingga bisa dibuat satu atau beberapa kumpulan variabel
laten atau faktor yang lebih sedikit dari jumlah variabel awal yang bebas atau tidak
berkorelasi sesamanya. Jadi antar faktor yang terbentuk tidak berkorelasi sesamanya.
2. Analisis Faktor Konfirmatori (CFA)
Analisis faktor konfirmatori yaitu suatu teknik analisis faktor di mana secara apriori
berdasarkan teori dan konsep yang sudah diketahui dipahami atau ditentukan
sebelumnya, maka dibuat sejumlah faktor yang akan dibentuk, serta variabel apa saja
yang termasuk ke dalam masing-masing faktor yang dibentuk dan sudah pasti
tujuannya. Pembentukan faktor konfirmatori (CFA) secara sengaja berdasarkan teori
dan konsep, dalam upaya untuk mendapatkan variabel baru atau faktor yang mewakili
beberapa item atau sub-variabel, yang merupakan variabel teramati atau observerb
variable.
Pada dasarnya tujuan analisis faktor konfirmatori adalah: pertama untuk
mengidentifikasi adanya hubungan antar variabel dengan melakukan uji korelasi.
Tujuan kedua untuk menguji validitas dan reliabilitas instrumen. Dalam pengujian
terhadap validitas dan reliabilitas instrumen atau kuesioner untuk mendapatkan data
penelitian yang valid dan reliabel dengan analisis faktor konfirmatori.

Proses Analisis Faktor


Secara garis besar, tahapannya:
1. Merumuskan masalah.
2. Menyusun matriks korelasi.
3. Ekstraksi faktor.
4. Merotasi factor.
5. Interpretasikan Faktor.
6. Pembuatan factor scores.
7. Pilih variabel surrogate atau tentukan summated scale.
Berikut penjelasan langkah-langkah di atas:

Merumuskan masalah
Merumuskan masalah meliputi beberapa hal:
1. Tujuan analisis faktor harus diidentifikasi.
2. Variabel yang akan dipergunakan di dalam analisis faktor harus dispesifikasi
berdasarkan penelitian sebelumnya, teori dan pertimbangan dari peneliti.
3. Pengukuran variabel berdasarkan skala interval atau rasio.
4. Banyaknya elemen sampel (n) harus cukup atau memadai.

Menyusun matriks korelasi


Di dalam melakukan analisis faktor, keputusan pertama yang harus diambil oleh peneliti
adalah menganalisis apakah data yang ada cukup memenuhi syarat di dalam analisis faktor.
Langkah pertama ini dilakukan dengan mencari korelasi matriks antara indicator-indikator
yang diobservasi. Ada beberapa ukuran yang bisa digunakan untuk syarat kecukupan data
sebagai rule of thumb yaitu:

1. Korelasi matriks antar indikator: Metode yang pertama adalah memeriksa korelasi
matriks. Tingginya korelasi antara indikator mengindikasikan bahwa indikator-
indikator tersebut dapat dikelompokkan ke dalam sebuah indikator yang bersifat
homogen sehingga setiap indikator mampu membentuk faktor umum atau faktor
konstruk. Sebaliknya korelasi yang rendah antara indikator megindikasikan bahwa
indikator-indikator tersebut tidak homogen sehingga tidak mampu membentuk faktor
konstruk.
2. Korelasi parsial: Metode kedua adalah memeriksa korelasi parsial yaitu mencari
korelasi satu indikator dengan indikator lain dengan mengontrol indikator lain.
Korelasi parsial ini disebut dengan negative anti-image correlations.
3. Kaiser-Meyer Olkin (KMO) : Metode ini paling banyak digunakan untuk melihat
syarat kecukupan data untuk analisis faktor. Metode KMO ini mengukur kecukupan
sampling secara menyeluruh dan mengukur kecukupan sampling untuk setiap
indikator.

Ekstraksi faktor
Ekstraksi Faktor adalah suatu metode yang digunakan untuk mereduksi data dari
beberapa indikator untuk menghasilkan faktor yang lebih sedikit yang mampu menjelaskan
korelasi antara indikator yang diobservasi. Ada beberapa metode yang bisa digunakan untuk
melakukan ekstraksi faktor yaitu:

1. Principal Components Analysis: Analisis komponen utama (principal components


analysis) merupakan metode yang paling sederhana di dalam melakukan ekstraksi
faktor. Metode ini membentuk kombinasi linear dari indikator yang diobservasi.
2. Principal Axis Factoring: Metode ini hampir sama dengan metode principal
components analysis sebelumnya kecuali matriks korelasi diagonal diganti dengan
sebuah estimasi indikator kebersamaan, namun tidak sama dengan principal
components analysis di mana indikator kebersamaan yang awal selalu diberi angka 1.
3. Unweighted Least Square: Metode ini adalah prosedur untuk meminimumkan jumlah
perbedaan yang dikuadratkan antara matriks korelasi yang diobservasi dan yang
diproduksi dengan mengabaikan matriks diagonal dari sejumlah faktor tertentu.
4. Generalized Least Square: Metode ini adalah metode meminimumkan error
sebagaimana metode unweighted least squares. Namun, korelasi diberi timbangan
sebesar keunikan dari indikator (error). Korelasi dari indikator yang mempunyai error
yang besar diberi timbangan yang lebih kecil dari indikator yang mempunyai error
yang kecil.
5. Maximum Likelihood: Adalah suatu prosedur ekstraksi faktor yang menghasilkan
estimasi parameter yang paling mungkin untuk mendapatkan matriks korelasi
observasi jika sampel mempunyai distribusi normal multivariat.
Merotasi Faktor
Setelah kita melakukan ekstraksi faktor, langkah selanjutnya adalah rotasi faktor
(rotation). Rotasi faktor ini diperlukan jika metode ekstraksi faktor belum menghasilkan
komponen faktor utama yang jelas. Tujuan dari rotasi faktor ini agar dapat memperoleh
struktur faktor yang lebih sederhana agar mudah diinterpretasikan. Ada beberapa metode
rotasi faktor yang bisa digunakan yaitu:

1. Varimax Method: Adalah metode rotasi orthogonal untuk meminimalisasi jumlah


indikator yang mempunyai factor loading tinggi pada tiap faktor.
2. Quartimax Method: Merupakan metode rotasi untuk meminimalisasi jumlah faktor
yang digunakan untuk menjelaskan indikator.
3. Equamax Method: Merupakan metode gabungan antara varimax method yang meminimalkan
indikator dan quartimax method yang meminimalkan faktor.

Interpretasikan Faktor
Setelah diperoleh sejumlah factor yang valid, selanjutnya kita perlu
menginterprestasikan nama-nama factor, mengingat factor merupakan sebuah konstruk dan
sebuah konstruk menjadi berarti kalau dapat diartikan. Interprestasi factor dapat dilakukan
dengan mengetahui variable-variabel yang membentuknya. Interprestasi dilakukan dengan
judgment. Karena sifatnya subjektif, hasil bisa berbeda jika dilakukan oleh orang lain.

Pembuatan factor scores


Faktor score yang dibuat, berguna jika akan dilakukan analisis lanjutan, seperti
analisis regresi, analisis diskriminan atau analisis lainnya.

Pilih variabel surrogate atau tentukan summated scale

1. Variabel surrogate adalah satu variable yang paling dapat mewakili satu factor. Misak
factor 1 terdiri dari variable X1, X2 dan X3. Maka yang paling mewakili factor 1
adalah variable yang memiliki factor loading terbesar. Apabila factor loading tertinggi
dalam satu factor ada yang hampir sama, missal X1 = 0,905 dan X2 = 0,904 maka
sebaiknya pemilihan surrogate variable ditentukan berdasarkan teori, yaitu variable
mana secara teori yang paling dapat mewakili factor. Atau cara lain adalah dengan
menggunakan Summated Scale.
2. Summated Scale adalah gabungan dari beberapa variable dalam satu factor, bisa
berupa nilai rata-rata dari semua factor tersebut atau nilai penjumlahan dari semua
variable dalam satu factor.
Tahapan secara grafik dapat anda lihat pada gambar “Framework Analisis Faktor” di atas!

Regresi Logistik
Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti
halnya regresi linear atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS)
regression. Perbedaannya adalah pada regresi logistik, peneliti memprediksi variabel terikat
yang berskala dikotomi. Skala dikotomi yang dimaksud adalah skala data nominal dengan
dua kategori, misalnya: Ya dan Tidak, Baik dan Buruk atau Tinggi dan Rendah.
Apabila pada OLS mewajibkan syarat atau asumsi bahwa error varians (residual)
terdistribusi secara normal. Sebaliknya, pada regresi ini tidak dibutuhkan asumsi tersebut
sebab pada regresi jenis logistik ini mengikuti distribusi logistik.

Asumsi Regresi Logistik


Asumsi Regresi Logistik antara lain:

1. Regresi logistik tidak membutuhkan hubungan linier antara variabel independen dengan
variabel dependen.
2. Variabel independen tidak memerlukan asumsi multivariate normality.
3. Asumsi homokedastisitas tidak diperlukan
4. Variabel bebas tidak perlu diubah ke dalam bentuk metrik (interval atau skala ratio).
5. Variabel dependen harus bersifat dikotomi (2 kategori, misal: tinggi dan rendah atau baik dan
buruk)
6. Variabel independen tidak harus memiliki keragaman yang sama antar kelompok variabel
7. Kategori dalam variabel independen harus terpisah satu sama lain atau bersifat eksklusif
8. Sampel yang diperlukan dalam jumlah relatif besar, minimum dibutuhkan hingga 50 sampel
data untuk sebuah variabel prediktor (independen).
9. Dapat menyeleksi hubungan karena menggunakan pendekatan non linier log transformasi
untuk memprediksi odds ratio. Odd dalam regresi logistik sering dinyatakan sebagai
probabilitas.

Model Persamaan Regresi Logistik


Model persamaan aljabar layaknya OLS yang biasa kita gunakan adalah berikut: Y =
B0 + B1X + e. Dimana e adalah error varians atau residual. Dengan model regresi ini, tidak
menggunakan interpretasi yang sama seperti halnya persamaan regresi OLS. Model
Persamaan yang terbentuk berbeda dengan persamaan OLS.

Berikut persamaannya:

Persamaan Regresi Logistik


Ln: Logaritma Natural.Di mana:

B0 + B1X: Persamaan yang biasa dikenal dalam OLS.

Sedangkan P Aksen adalah probabilitas logistik yang didapat rumus sebagai berikut:

Probabilitas Regresi Logistik


Di mana:

exp atau ditulis “e” adalah fungsi exponen.

(Perlu diingat bahwa exponen merupakan kebalikan dari logaritma natural. Sedangkan
logaritma natural adalah bentuk logaritma namun dengan nilai konstanta 2,71828182845904
atau biasa dibulatkan menjadi 2,72).
Dengan model persamaan di atas, tentunya akan sangat sulit untuk
menginterprestasikan koefisien regresinya. Oleh karena itu maka diperkenalkanlah istilah
Odds Ratio atau yang biasa disingkat Exp(B) atau OR. Exp(B) merupakan exponen dari
koefisien regresi. Jadi misalkan nilai slope dari regresi adalah sebesar 0,80, maka Exp(B)
dapat diperkirakan sebagai berikut:

Nilai Odds Ratio


Besarnya nilai Exp(B) dapat diartikan sebagai berikut:
Misalnya nilai Exp (B) pengaruh rokok terhadap terhadap kanker paru adalah sebesar
2,23, maka disimpulkan bahwa orang yang merokok lebih beresiko untuk mengalami kanker
paru dibadningkan dengan orang yang tidak merokok. Interprestasi ini diartikan apabila
pengkodean kategori pada tiap variabel sebagai berikut:

1. Variabel bebas adalah Rokok: Kode 0 untuk tidak merokok, kode 1 untuk merokok.
2. Variabel terikat adalah kanker Paru: Kode 0 untuk tidak mengalami kanker paru, kode
1 untuk mengalami kanker paru.
Pseudo R Square
Perbedaan lainnya yaitu pada regresi ini tidak ada nilai “R Square” untuk mengukur besarnya
pengaruh simultan beberapa variabel bebas terhadap variabel terikat. Dalam regresi logistik dikenal
istilah Pseudo R Square, yaitu nilai R Square Semu yang maksudnya sama atau identik dengan R
Square pada OLS.
Jika pada OLS menggunakan uji F Anova untuk mengukur tingkat signifikansi dan seberapa
baik model persamaan yang terbentuk, maka pada regresi ini menggunakan Nilai Chi-Square.
Perhitungan nilai Chi-Square ini berdasarkan perhitungan Maximum Likelihood.

Maka akan keluar output sebagai berikut:

Dependent Variable: Y
Method: ML - Binary Logit (Quadratic hill climbing)
Date: 02/07/14   Time: 08:50
Sample: 1 35
Included observations: 35
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives

Variable Coefficient Std. Error z-Statistic Prob.

C -1.417341 1.094598 -1.294851 0.1954


D01 0.068678 0.026412 2.600218 0.0093
T -1.658949 0.922867 -1.797603 0.0722

McFadden R-
squared 0.347378     Mean dependent var 0.628571
S.D. dependent var 0.490241     S.E. of regression 0.382841
Akaike info criterion1.032513     Sum squared resid 4.690151
Schwarz criterion 1.165828     Log likelihood -15.06897
Hannan-Quinn
criter. 1.078533     Restr. log likelihood -23.08991
LR statistic 16.04187     Avg. log likelihood -0.430542
Prob(LR statistic) 0.000329

Obs with Dep=0 13      Total obs 35


Obs with Dep=1 22

Nah, mari kita interpretasi satu per satu output yang muncul.

1. Overall test:
Test ini dilakukan untuk mengetahui apakah secara bersama-sama variabel bebas
berpengaruh signifikan terhadap variabel tidak bebas atau minimal ada satu variabel
bebas yang berpengaruh signifikan terhadap variabel tak bebas. Uji ini mirip dengan
uji F pada analisis regresi linier berganda. Nilai uji ini dapat dilihat pada LR χ2 atau
bila menggunakan nilai p-value dapat dilihat pada item prob>chi2. Untuk lebih
mudahnya, dapat langsung kita lihat dengan menggunakan nilai p-value, dimana nilai
pob> χ2 menunjukkan angka 0.000. Nilai ini lebih kecil dari tingkat signifikansi uji
sebesar 0.05 sehingga kita dapat menolak hipotesis nol yang menyatakan bahwa tidak
ada variabel bebas yang berpengaruh signifikan terhadap variabel tak bebas. Dengan
demikian, maka dengan tingkat kepercayaan 95 persen dapat disimpulkan bahwa
minimal terdapat satu variabel bebas yang berepengaruh signifikan terhadap variabel
tak bebas.

2. Parsial Test
Test ini dilakukan untuk mengetahui pengaruh setiap variabel bebas terhadap variabel
tak bebas secara parsial. Uji ini mirip dengan uji t pada analisis regresi linier
berganda. Nilai uji ini dapat dilihat pada nilai z atau bila menggunakan nilai p-value
dapat dilihat pada item Sig. Agar lebih mudah, kali ini kita akan menggunakan nilai
Sig. Untuk variabel T nilai Sig. adalah 0.072. Nilai ini lebih besar dari nilai
signifikansi uji sebesar 0.05 sehingga gagal menolah H0 yang menyatakan bahwa
variabel T tidak berpengaruh signifikan terhadap variabel Y. Sehingga dengan tingkat
kepercayaan 95 persen dapat disimpulkan bahwa variabel T tidak berpengaruh
signifikan terhadap variabel Y. Sementara itu, untuk variabel D, mepunyai nilai Sig
sebesar 0.009. Nilai ini lebih kecil dari nilai signifikansi uji sebesar 0.05 sehingga H0
yang menyatakan bahwa variabel T tidak berpengaruh signifikan terhadap variabel Y
bisa ditolak. Sehingga dengan tingkat kepercayaan 95 persen dapat disimpulkan
bahwa variabel D berpengaruh signifikan terhadap variabel Y.

3. Pseudo R-Square
Nilai ini disebut Pseudo R-square karena dihitung berbeda dengan penghitungan R-
square pada analisis regresi berganda atau analisis regresi sederhana. SPSS secara
default menghitung nilai R-Square pada regresi logistik dengan menggunakan
formula Nagelkerke R-squared. Pembacaannya sama seperti pembacaan nilai R-
squared pada analisis regresi berganda/sederhana. Nilai pseudo R-squared pada model
ini adalah 0.502 artinya 50,2 persen variasi yang terjadi pada Y dapat dijelaskan oleh
variabel dalam model, sedangkan sisanya dijelaskan oleh variabel lain di luar model.

4. Interpretasi
Tidak seperti pada analisis regresi linier berganda/sederhana, interpretasi pada analisis
regresi logistik tidak dapat langsung dibaca melalui nilai koefisiennya. Untuk dapat
diinterpretasikan, terlebih dahulu nilai koefisien setiap variabel harus di-eksponensial-
kan. Untuk variabel T, nilai exp(b) adalah 0.190 sedangkan nilai exp(b) dari variabel
D adalah 1.071.
Setelah diperoleh nilai exp(b) atau yang lebih dikenal dengan odds ratio, maka
model akan siap diinterpretasi. Interpretasi antara variabel bebas kuantitatif akan
berbeda dengan variabel bebas kualitatif. Untuk variabel bebas kuantitatif akan dibaca
semakin besar atau semakin kecil (tergantung tanda) sedangkan untuk variabel
kualitatif akan dibaca sebagai tingkat perbandingannya.
Untuk variabel D: semakin lama durasi operasi seseorang, maka peluang
untuk mengalami sore throat setelah operasi akan semakin meningkat.
Untuk variabel T: kecenderungan seseorang yang memakai tracheal tube
untuk mengalami sore throat adalah 0.190 kali dibanding pasien yang menggunakan
laryngeal mask airway.
Berikut merupakan hasil outputnya

 Untuk model logit tidak menggunakan t hitung (t stat) lagi, tapi menggunakan z
hitung (z Stat) untuk melihat tingkat signifikannya. 
 untuk melihat keseuaian model digunkan likelihood ratio dan untuk intepretasi
hasilnya kita tidak boleh langsung mengintepretasikan dengan koefisien betha, tapi
harus menggunakan odd ratio.. nilai odd ratio dapat di cari dengan menggunakan
excel dengan rumus =2,72^nilai koefisien. itu artinya nilai e=2,72 dipangkatkan
dengan masing-masing nilai koefisien betha
 Hasil perhitungan dengan menggunakan Excel

dari hasil di atas dapat ddiintepretasikan :


 Untuk Variabel Y (Pendapatan), nilai odd ratio sebesar 0,87, ini artinya bahwa setiap
kenaikan pendapatan 1 % maka keinginan untuk memilki anak berkurang sebesar
0,87 kali dibandingkan orang yang memiliki pendapatan lebih rendah
 Untuk Var ED (Tingkat Pendidikan),nilai odd ratio dari ED adalah sebesar 1.00,
artinya setiap kenaikan jumlah tahun belajar seseorag maka keinginan untuk
menambah anak atau memiliki anak lagi akan semakin menurun sebanya 1 kali
dibanding seseorang yang berpendidikan rendah.
 Untuk Variabel CF (Biaya Konsumsi Makanan), nilai odd ratio dari konsumsi
makanan CF adalah 1.00, artiya semakin tinggi pengeluaran seseorang untuk
konsumsi makanan maka semakin berkurang pula keinginan untuk memilki anak
lagi sebesar 1 kali dibanding yang memiliki biaya konsumsi makanan yang lebih
rendah.
Analisis Diskriminan
Analisis diskriminan adalah salah satu teknik statistik yang bisa digunakan pada
hubungan dependensi (hubungan antar variabel dimana sudah bisa dibedakan
mana variabel respon dan mana variabel penjelas).
Analisis diskriminan bermanfaat pada situasi di mana sampel total dapat dibagi
menjadi group-group berdasarkan karateristik variabel yang diketahui dari beberapa kasus.
Tujuan utama dari analisis multipel diskriminan adalah untuk mengetahui perbedaan antar
group,”(Hair, Anderson, Tatham, Black, 1995).

Pengertian Analisis Diskriminan


Analisis diskriminan merupakan teknik menganalisis data, dimana variabel
dependen merupakan data kategorik atau kualitatif (ordinal atau rasio),
sedangkan variabel independen berupa data kuantitatif (interval atau rasio).
Analisis diskriminan merupakan salah satu dari analisis multivariat dengan metode
dependensi. Di mana kita mengenal ada dua metode dalam analisis multivariat, yaitu metode
dependensi dan metode interdependensi. Yang dimaksud dengan metode dependensi yaitu
variabel-variabelnya tidak saling bergantung satu dengan yang lain, sedangkan metode
interdenpendensi adalah antarvariabelnya ada saling ketergantungan.

Tujuan Analisis Diskriminan


Analisis diskriminan adalah metode untuk mencari dasar pengelompokan individu
berdasarkan lebih dari satu variabel bebas. Analisis tersebut dipakai untuk menjawab
pertanyaan bagaimana individu dapat dimasukkan ke dalam kelompok berdasarkan beberapa
variabel.
Analisis diskriminan bertujuan untuk mengklasifikasikan suatu individu atau
observasi ke dalam kelompok yang saling bebas (mutually exclusive/disjoint) dan menyeluruh
(exhaustive) berdasarkan sejumlah variabel penjelas.

Persamaan Diskriminan
Persamaan Fungsi Diskriminan yang dihasilkan untuk memberikan peramalan yang
paling tepat untuk mengklasifikasi individu kedalam kelompok berdasarkan skor variabel
bebas.
Jika kita bandingkan dengan regresi linier, maka analisis ini merupakan kebalikannya.
Pada regresi linier, variabel respon yang harus mengikuti distribusi normal dan
homoskedastis, sedangkan variabel penjelas diasumsikan fixed, artinya variabel penjelas tidak
disyaratkan mengikuti sebaran tertentu. Untuk analisis diskriminan, variabel penjelasnya
seperti sudah disebutkan di atas harus mengikuti distribusi normal dan homoskedastis,
sedangkan variabel responnya fixed.

Asumsi Analisis Diskriminan


Asumsi dalam analisis ini antara lain:

1. Tidak adanyamultikolinieritas antara variabel independen (Hubungan linear antar


variable independen).
2. Variabel independen mengikutidistribusi normal.
3. Adanya homogenitas varians antara kelompok data (Matriks varians-covarians
variabel penjelas berukuran pxp pada kedua kelompok harus sama).

Analisis Diskriminan dapat diuji dengan menggunakan software seperti SPSS, Stata,


Minitab dan SAS. Namun dalam kesempatan kali ini, penulis akan memberikan tutorial dan
penjelasan mendetail tentang cara melakukan uji diskriminan dengan menggunakan Software
SPSS.

Contoh Interprestasi Output Analisis Diskriminan


Dalam interprestasi ini, anggap saja pada variabel dependen (Y) disebut sebagai
“pengambilan keputusan”, di mana nilai 0 adalah responden memberi keputusan 0 dan nilai 1
adalah responden memberi keputusan 1.

Tabel Group Membership

Analisis Diskriminan SPSS Group


Tabel Group Statistics di atas menerangkan bahwa kasus yang dianalisis ada 200 responden.
92 responden memberi keputusan 0 dan 108 memberi keputusan 1.

Pada variabel X1 nilai rata-rata X1 pada kelompok 1 : 63.20, sedangkan kelompok 0:


35.92. Artinya rata-rata X1 terhadap Keputusan pada kelompok pertama (1) lebih tinggi
dibandingkan dengan kelompok kedua (0).

Begitu juga dengan variabel yang lain (X2 dan X3).

Tabel Equality Of Group Means

Analisis Diskriminan SPSS Test Equality


Tabel Tests of Equality of Group Means di atas adalah hasil analisis untuk
menguji kesamaan rata-rata variabel. Uji ini menggunakan Wilks’ lambda dan nilai
signifikansi. Jika angka Wilks’ Lambda mendekati angka 0 maka cenderung ada perbedaan
dalam kelompok.
Keputusan Hipotesis dengan nilai signifikansi:

 Jika signifikansi > 0,05 maka tidak ada perbedaan dalam kelompok
 Jika signifikansi < 0,05 maka ada perbedaan dalam kelompok
Semua variabel di atas nilai sig < 0,05, maka ketiga variabel memberikan perbedaan pada
pengambilan keputusan (Y).

Tabel Covariance dan Correlation Matrix

Analisis Diskriminan SPSS Covariance Matrix


Tabel di atas adalah tabel analisis Covariances dan Correlation. Lihat nilai Korelasi, apabila
ada korelasi antar variabel independen dengan nilai > 0,5 maka dicurigai ada
gejala multikolinearitas. Di atas tidak terdapat korelasi > 0,5, maka tidak
ada multikolinearitas.

Tabel Homogenitas Covariance

Analisis Diskriminan SPSS Box’ M Test


Untuk menguji kesamaan varian digunakan angka Box’ M dengan ketentuan sebagai berikut:

• Jika signifikansi > 0,05 maka HO diterima

• Jika signifikansi < 0,05 maka H0 ditolak


Hipotesis:

 H0 = Varians kedua kelompok data identik/homogen


 H1 = Varians kedua kelompok data tidak sama/heterogen.
Dari nilai p-value statistik uji Box’ M diketahui nilai p-value 0,364 (> 0,05) maka terima H0.

Dengan demikian varians kelompok data adalah identik/homogen.

NB: jika tidak terpenuhinya asumsi ini dapat dilakukan eksplorasi data untuk melihat
kemungkinan ada tidaknya outlier data.

Tabel Variables Entered/Removed Analisis Diskriminan

Interprestasi Output Analisis Diskriminan SPSS Stepwise Method


Di atas menunjukkan variabel yang dimasukkan dalam tiap tahap. Ada 3 tahapan, maka ada 3
variabel yang masuk model. Variabel yang masuk model adalah variabel yang mempunyai
pengaruh bermakna pada Y dan tidak menyebabkan nilai F tidak signifikan.

Tahapan pemasukan variabel ditentukan oleh besar kecilnya angka sig of F to


Remove dimana angka terkecil akan di dahulukan.

Tabel Variabel Yang Tersisa Di Dalam Model Analisis Diskriminan

Analisis Diskriminan SPSS Variable In The Analysis


Tabel di atas menunjukkan variabel yang tetap tinggal didalam model, yaitu ada 3 variabel.
Tabel Variabel Yang Dikeluarkan Dari Dalam Model Analisis Diskriminan

Analisis Diskriminan SPSS Variable Not In The Analysis


Tabel di atas menunjukkan variabel yang keluar dari dalam model dalam tiap tahap, sampai
tahap 2 hanya ada 1 yaitu X1, tetapi akhirnya pada tahap 3 tidak ada yang dikeluarkan.

Tabel Wilks Lambda Analisis Diskriminan

Analisis Diskriminan SPSS Wilk’s Lambda: interprestasi output analisis diskriminan dengan
SPSS
Tabel di atas menunjukkan perubahan nilai lambda dan nilai uji F dalam tiap tahap. Sampai
tahap 3 nilai Sig tetap < 0,05, maka sampai tahap 3 variabel bebas masuk semua dalam
model.
Angka signifikansi untuk 3 variabel sebesar 0,000 dengan nilai F 235,829 pada tahap
satu dan pada tahap 3 signifikansi sebesar 0,000 dengan nilai F 175.397. Karena nilai
signifikansi 0,000 (< 0,05) maka variabel masing-masing kelompok mempunyai perbedaan
yang signifikan.

Tabel Canonical Discriminant Dalam Analisis Diskriminan


Di bawah ini adalah tabel output terakhir dan sangat penting di dalam proses analisis
diskriminan:

Interprestasi Output Analisis Diskriminan


Eigenvalue
Pada tabel Eigenvalues terdapat nilai canonical correlation. Nilai canonical correlation
digunakan untuk mengukur derajat hubungan antara hasil diskriminan atau besarnya variabilitas yang
mampu diterangkan oleh variabel independen terhadap variabel dependen.
Canonical Correlation

Dari tabel di atas, diperoleh nilai canonical correlation sebesar 0,854 bila di
kuadratkan (0,854 x 0,854) = 0.7293, artinya 72,93% varians dari variabel independen
(kelompok) dapat dijelaskan dari model diskriminan yang terbentuk.
Nilai korelasi kanonikal menunjukan hubungan antara nilai diskriminan dengan
kelompok. Nilai sebesar 0,854 berarti hubungannya sangat tinggi karena mendekati angka 1
(besarnya korelasi antara 0-1).

Uji Wilks Lambda Uji Diskriminan SPSS

Analisis Uji Diskriminan SPSS Wilks’ Lambda Signifikansi


Pada tabel Wilk’s Lambda diketahui nilai signifikansi statistics Chi-square sebesar 0,000 (<
0,05) yang berarti ada perbedaan yang signifikan antara kedua kelompok responden yang
didasarkan pada ketiga variabel bebas.

Struktur Matrix Uji Diskriminan dengan SPSS

Analisis Diskriminan SPSS Structure Matrix


Tabel Structure Matrix menunjukan urutan karakteristik yang paling membedakan keputusan
(Y). Variabel X3 adalah yang paling membedakan, kemudian jumlah X2 dan selanjutnya X1.
Tabel di atas menunjukan adanya korelasi antara variabel-variabel bebas dengan
fungsi diskriminan yang terbentuk. Variabel X3 mempunyai korelasi yang paling tinggi
dengan nilai korelasi sebesar 0,666. Jika ada var dengan tanda “a”, maka variabel tersebut
tidak dimasukan dalam proses analisis diskriminan.
Tabel Fungsi Diskriminan Uji Diskriminan dengan SPSS

Uji Diskriminan
Tabel Canonical Discriminat Function Coefficients di atas menunjukkan fungsi diskriminan
dengan persamaan sebagai berikut : Z score = -6,045 (konstan) + 0,037 X1 + 0,042 X2 +
0,042 X3. Fungsi ini berguna untuk menganalisis kasus atau responden yang diteliti akan
termasuk ke dalam kelompok mana, yaitu kelompok pertama (keputusan 0) atau kedua
(keputusan 1).
Berdasarkan angka tabel di atas, terdapat dua kelompok yang berbeda yaitu kelompok
dengan keputusan 0 dengan centroid (rata-rata kelompok) negatif dan kelompok yang
keputusan 1 dengan centroid (rata-rata kelompok) positif.

Persamaan Uji Diskriminan dengan SPSS

Analisis Diskriminan SPSS Functions Coefficients


Tabel Classification Processing Summary di atas menunjukan jumlah kasus
(responden) sebanyak 200 yang di proses dan tidak ada data yang hilang (missing).
Pada Tabel Prior Probabilities for Groups menunjukkan kelompok dengan keputusan
0 sebanyak 92 sample sedangkan kelompok dengan keputusan sebanyak 1 sebanyak 108
sample.
Pada Tabel Classification Function Coefficients menunjukkan hal yang sama dengan
bagian Canonical Discriminant Function Coefficients di atas yang sebelumnya sudah dibahas.
Persamaannya sebagai berikut:

Untuk kelompok 0, persamaannya :

Nilai = -9.846 (konstan) + 0,161 (X1) + 0,178 (X2) + 0,178 (X3)

Untuk kelompok 1, persamaannya :

Nilai = -9.846 (konstan) + 0,282 (X1) + 0,314 (X2) + 0,316 (X3)

Selisis antara kedua kelompok :

Nilai = -6,045 (konstan) + 0,037 (X1) + 0,042 (X2) + 0,042 (X3).

Ketepatan Fungsi Uji Diskriminan dengan SPSS

Analisis Diskriminan SPSS Classification Results


Tabel di atas pada kolom Original baris “Kelompok Keputusan 0 sebanyak 86
responden atau 93,5%, sedangkan 6 responden (6,5%) berpindah ke kelompok keputusan 1”.

Sementara itu, 105 responden (97,2%) yang berada dikelompok “keputusan 1” dan
ada 3 responden (2,8%) berpindah ke kelompok keputusan 0”.

Maka Ketepatan fungsi diskriminan dapat dihitung dengan cara: 86 + 105/200 = 0.955
atau 95,5 %.
Kesimpuan Hipotesis Uji Diskriminan
Kesimpulan hasil uji diskriminan dalam tutorial ini adalah:

1. Asumsi Normalitas Multivariate terpenuhi


2. Asumsi tidak adanya multikolinearitas antar variabel independen terpenuhi
3. Asumsi Homogenitas Varians antar kelompok terpenuhi
4. Terdapat perbedaan yang signifikan antara kelompok responden yang memberikan
keputusan 0 dengan kelompok yang memberikan keputusan 1
5. Faktor-faktor yang membuat berbeda adalah variabel X1, X2, dan X3 (Semua
Variabel Independen).
6. Ketepatan fungsi diskriminan adalah sebesar 95,5%. Ketepatan ini tinggi karena
mendekati angka 100%.
7. Persamaan fungsi diskriminan adalah: Nilai Z = -6,045 (konstan) + 0,037 (X1) +
0,042 (X2) + 0,042 (X3)

Analisis Cluster
Sama dengan analisis factor, analisis cluster (cluster analysis) termasuk pada Interdependes
Techniques. Namun ada perbedaan mendasar di antara kedua alat analisis multivariate ini.
Jika analisis factor (R factor analysis) bertujuan mereduksi variabel, analisis cluster (Q factor
analysis) lebih bertujuan mengelompokkan isi variabel, walaupun bisa juga disertai dengan
pengelompokan variabel. Dalam terminology SPSS, analisis factor adalah perlakuan terhadap
kolom, sedangkan analisis cluster adalah perlakuan terhadap baris.

Tujuan Analisis Cluster


Tujuan utama analisis cluster adalah mengelompokkan objek-objek berdasarkan kesamaan
karakteristik di antara objek-objek tersebut. Objek bisa berupa produk (barang dan jasa),
benda (tumbuhan atau lainnya), serta orang (responden, konsumen atau yang lain). Objek
tersebut akan diklasifikasikan ke dalam satu atau lebih cluster (kelompok) sehingga objek-
objek yang berada dalam satu cluster akan mempunyai kemiripan satu dengan yang lain.

Definisi Analisis Cluster


Analisis cluster adalah teknik multivariat yang mempunyai tujuan utama untuk
mengelompokkan objek-objek/cases berdasarkan karakteristik yang dimilikinya. Analisis
cluster mengklasifikasi objek sehingga setiap objek yang memiliki sifat yang mirip (paling
dekat  kesamaannya) akan mengelompok kedalam satu cluster (kelompok) yang sama.

Secara logika, cluster yang baik adalah cluster yang mempunyai:

1. Homogenitas (kesamaan) yang tinggi antar anggota dalam satu cluster (within-


cluster).
2. Heterogenitas (perbedaan) yang tinggi antar cluster yang satu dengan cluster yang
lainnya (between-cluster).
Beberapa manfaat dari analisis cluster adalah:

Eksplorasi data peubah ganda, reduksi data, stratifikasi sampling, prediksi keadaan obyek.
Hasil dari analisis cluster dipengaruhi oleh: obyek yang diclusterkan, peubah yang diamati,
ukuran kemiripan (jarak) yang dipakai, skala ukuran yang dipakai, serta metode
pengclusteran yang digunakan.

Proses Analisis Cluster


Untuk menganalisis cluster, anda perlu melakukan proses sebagai berikut:

Tahap 1:

Mengukur kesamaan antar objek (similarity). 


Sesuai prinsip analisis cluster yang mengelompokkan objek yang mempunyai kemiripan,
proses pertama adalah mengukur seberapa jauh ada kesamaan antar objek. Metode yang
digunakan:

 Mengukur korelasi antar sepasang objek pada beberapa variabel


 Mengukur jarak (distance) antara dua objek. Pengukuran ada bermacam-macam, yang
paling popular adalah metode Euclidian distance.

Tahap 2:

Membuat cluster. 
Metode dalam membuat cluster ada banyak sekali, seperti yang digambarkan dalam diagram
di bawah ini:

Diagram Analisis Cluster


Hirarchial Methode
Metode ini memulai pengelompokan dengan dengan dua atau lebih objek yang
mempunyai kesamaan paling dekat. Kemudian proses diteruskan ke objek lain yang
mempunyai kedekatan kedua. Demikian seterusnya sehingga cluster akan membentuk
semacam “pohon”, di mana  ada hirarki (tingkatan) yang jelas antar objek, dari yang
paling mirip sampai paling tidak mirip. Secara logika semua objek pada akhirnya
akan membentuk sebuah cluster. Dendogram biasanya digunakan untuk membantu
memperjelas proses hirarki tersebut.

Kluster Hirarki
Dalam metode hirarki cluster terdapat dua tipe dasar yaitu agglomerative
(pemusatan) dan divisive (penyebaran).  Dalam metode agglomerative, setiap obyek
atau observasi dianggap sebagai sebuah cluster tersendiri. Dalam tahap selanjutnya,
dua cluster yang mempunyai kemiripan digabungkan menjadi sebuah cluster baru
demikian seterusnya. Sebaliknya, dalam metode divisive kita beranjak dari sebuah
cluster besar yang terdiri dari semua obyek atau observasi. Selanjutnya, obyek atau
observasi yang paling tinggi nilai ketidakmiripannya kita pisahkan demikian
seterusnya.

Agglomerative
Dalam agglomerative ada lima metode yang cukup terkenal, yaitu: Single
Linkage, Complete Linkage, Average Linkage, Ward’s Method, Centroid Method.

Single Linkage, prosedur ini didasarkan pada jarak terkecil. Jika dua obyek
terpisah oleh jarak yang pendek maka kedua obyek tersebut akan digabung
menjadi satu cluster daan demikian saterusnya.
Complete Linkage, berlawanan dengan Single Linkage prosedur ini
pengelompokkannya berdasarkan jarak terjauh.
Average Linkage, prosedure ini hampir sama dengan Single Linkage
maupun Complete Linkage, namun kriteria yang digunakan adalah rata-
rata jarak seluruh individu dalam suatu cluster dengan jarak seluruh
individu dalam cluster yang lain.
Ward’s Method, jarak antara dua cluster dalam metode ini
berdasarkan total sum of square dua cluster pada masing-masing variabel.
Centroid Method, jarak antara dua cluster dalam metode ini berdasarkan
jarak centroid dua cluster yang bersangkutan.

Manfaat Analisis Kluster Hirarki


Keuntungan penggunaan metode hierarki dalam analisis Cluster adalah
mempercepat pengolahan dan menghemat waktu karena data yang diinputkan
akan membentuk hierarki atau membentuk tingkatan tersendiri sehingga
mempermudah dalam penafsiran, namun kelemahan dari metode ini adalah
seringnya terdapat kesalahan pada data outlier, perbedaan ukuran jarak yang
digunakan, dan terdapatnya variabel yang tidak relevan. Sedang metode non-
hierarki memiliki keuntungan dapat melakukan analisis sampel dalam ukuran
yang lebih besar dengan lebih efisien. Selain itu, hanya memiliki sedikit
kelemahan pada data outlier, ukuran jarak yang digunakan, dan variabel tak
relevan atau variabel yang tidak tepat. Sedangkan kelemahannya adalah untuk
titik bakal random lebih buruk dari pada metode hirarkhi.

Non-Hirarchial Methode
Berbeda dengan metode hirarki, metode ini justru dimulai dengan terlebih dahulu
jumlah cluster yang diinginkan (dua cluster, tiga cluster atau yang lain). Setelah
jumlah cluster diketahui, baru proses cluster dilakukan tanpa mengikuti proses
hirarki. Metode ini biasa disebut dengan K-Means Cluster.

Kluster Non Hirarki


Kebalikan dari metode hirarki, metode nonhirarki tidak meliputi proses “treelike
construction“. Justru menempatkan objek-objek ke dalam cluster sekaligus
sehingga terbentuk sejumlah cluster tertentu. Langkah pertama adalah memilih
sebuah cluster sebagai inisial cluster pusat, dan semua objek dalam jarak tertentu
ditempatkan pada cluster yang terbentuk. Kemudian memilih cluster selanjutnya
dan penempatan dilanjutkan sampai semua objek ditempatkan. Objek-objek bisa
ditempatkan lagi jika jaraknya lebih dekat pada cluster lain daripada cluster
asalnya.

Pendekatan Metode non hirarki cluster


Metode nonhirarki cluster berkaitan dengan K-means custering, dan ada tiga
pendekatan yang digunakan untuk menempatkan masing-masing observasi pada
satu cluster.

Sequential Threshold, Metode Sequential Threshold


Sequential Threshold, Metode Sequential Threshold memulai dengan
pemilihan satu cluster dan menempatkan semua objek yang berada pada
jarak tertentu ke dalamnya. Jika semua objek yang berada pada jarak
tertentu telah dimasukkan, kemudian cluster yang kedua dipilih dan
menempatkan semua objek yang berjarak tertentu ke dalamnya. Kemudian
cluster ketiga dipilih dan proses dilanjutkan seperti yang sebelumnya.

Parallel Threshold, Metode Parallel Threshold


Parallel Threshold, Metode Parallel Threshold merupakan kebalikan dari
pendekatan yang pertama yaitu dengan memilih sejumlah cluster secara
bersamaan dan menempatkan objek-objek kedalam cluster yang memiliki
jarak antar muka terdekat. Pada saat proses berlangsung, jarak antar muka
dapat ditentukan untuk memasukkan beberapa objek ke dalam cluster-
cluster. Juga beberapa variasi pada metode ini, yaitu sisa objek-objek tidak
dikelompokkan jika berada di luar jarak tertentu dari sejumlah cluster.
Optimization
Optimization, Metode ketiga adalah serupa dengan kedua metode
sebelumnya kecuali bahwa metode ini memungkinkan untuk
menempatkan kembali objek-objek ke dalam cluster yang lebih dekat.

Interprestasi Analisis Cluster


Setelah cluster terbentuk, entah dengan metode hirarki atau non-hirarki, langkah
selanjutnya adalah melakukan interprestasi terhadap cluster yang terbentuk, yang pada
intinya memberi nama spesifik untuk menggambarkan isi cluster. Misalnya,
kelompok konsumen yang memperhatikan lingkungan sekitar sebelum membeli
sebuah rumah bisa dinamai “cluster lingkungan”.

Tahap validasi Cluster


Melakukan validasi dan profiling cluster. Cluster yang terbentuk kemudian
diuji apakah hasil tersebut valid. Kemudian dilakukan proses profiling untuk
menjelaskan karakteristik setiap cluster berdasarkan profil tertentu (seperti usia
konsumen pembeli rumah, tingkat penghasilannya dan sebagainya). Analisis cluster
agak bersifat subjektif  dalam penentuan penyelesaian cluster yang optimal, sehingga
peneliti seharusnya memberikan perhatian yang besar mengenai validasi dan jaminan
tingkat signifikansi pada penyelesaian akhir dari cluster. Meskipun tidak ada metode
untuk menjamin validitas dan tingkat signifikansi , beberapa pendekatan telah
dikemukakan untuk memberikan dasar bagi perkiraan  peneliti.
Validasi Hasil Cluster
Validasi termasuk usaha yang dilakukan oleh peneliti untuk menjamin
bahwa hasil cluster adalah representatif terhadap populasi secara umum,
dan dengan demikian dapat digeneralisasi untuk objek yang lain dan stabil
untuk waktu tertentu. Pendekatan langsung dalam hal ini adalah dengan
analisis sample secara terpisah kemudian membandingkan antara  hasil
cluster dengan perkiraan masing-masing cluster. Pendekatan ini sering
tidak praktis, karena adanya keterbatasan waktu dan biaya atau
ketidaktersediaan objek untuk perkalian analisis cluster. Dalam hal ini
pendekatan tyang biasa digunakan adalah dengan membagi sample
menjadi dua kelompok. Masing-masing dianalisis cluster secara terpisah,
kemudian hasinya dibandingkan.

Profiling Hasil Cluster


Tahap Profiling meliputi penggambaran karakteristik masing-masing
cluster untuk menjelaskan bagaimana mereka bisa berbeda secara relevan
pada tiap dimensi. Tipe ini meliputi penggunaan analisis diskriminan.
Prosedur dimulai setelah cluster ditentukan. Peneliti menggunakan data
yang sebelumnya tidak masuk dalam prosedur cluster untuk
menggambarkan karakteristik masing-masing cluster. Meskipun secara
teori tidak masuk akal (rasional) dalam perbedaan silang cluster, akan
tetapi hal ini diperlukan untuk memprediksi validasi taksiran, sehingga 
minimal penting secara praktek.

Asumsi Analisis Cluster


Untuk melakukan proses analisis cluster ini, ada asumsi yang harus
terpenuhi,yaitu: Sampel yang diambil benar-benar dapat mewakili populasi
yang ada (representativeness of the sample) dan Multikolinieritas. Sedangkan
asumsi lainnya yang biasanya dilakukan pada analisis multivariat tidak perlu
dilakukan, seperti: Uji Normalitas, Uji Linearitas dan Uji Heteroskedastisitas.

Anda mungkin juga menyukai