Analisis cluster adalah teknik multivariat yang mempunyai tujuan utama untuk
mengelompokkan objek-objek/cases berdasarkan karakteristik yang dimilikinya. Analisis
cluster mengklasifikasi objek sehingga setiap objek yang memiliki sifat yang mirip (paling
dekat kesamaannya) akan mengelompok kedalam satu cluster (kelompok) yang sama.
1. Homogenitas (kesamaan) yang tinggi antar anggota dalam satu cluster (within-
cluster).
2. Heterogenitas (perbedaan) yang tinggi antar cluster yang satu dengan cluster yang
lainnya (between-cluster).
Beberapa manfaat dari analisis cluster adalah: eksplorasi data peubah ganda, reduksi data,
stratifikasi sampling, prediksi keadaan obyek. Hasil dari analisis cluster dipengaruhi oleh:
obyek yang diclusterkan, peubah yang diamati, ukuran kemiripan (jarak) yang dipakai, skala
ukuran yang dipakai, serta metode pengclusteran yang digunakan.
Tahap 1:
Mengukur kesamaan antar objek (similarity). Sesuai prinsip analisis cluster yang
mengelompokkan objek yang mempunyai kemiripan, proses pertama adalah mengukur
seberapa jauh ada kesamaan antar objek. Metode yang digunakan:
Tahap 2:
Membuat cluster. Metode dalam membuat cluster ada banyak sekali, seperti yang
digambarkan dalam diagram di bawah ini:
Diagram
Analisis Cluster
Hirarchial Methode
Metode ini memulai pengelompokan dengan dengan dua atau lebih objek yang
mempunyai kesamaan paling dekat. Kemudian proses diteruskan ke objek lain
yang mempunyai kedekatan kedua. Demikian seterusnya sehingga cluster akan
membentuk semacam “pohon”, di mana ada hirarki (tingkatan) yang jelas antar
objek, dari yang paling mirip sampai paling tidak mirip. Secara logika semua
objek pada akhirnya akan membentuk sebuah cluster. Dendogram biasanya
digunakan untuk membantu memperjelas proses hirarki tersebut.
Kluster Hirarki
Dalam metode hirarki cluster terdapat dua tipe dasar yaitu agglomerative
(pemusatan) dan divisive (penyebaran). Dalam metode agglomerative, setiap
obyek atau observasi dianggap sebagai sebuah cluster tersendiri. Dalam tahap
selanjutnya, dua cluster yang mempunyai kemiripan digabungkan menjadi sebuah
cluster baru demikian seterusnya. Sebaliknya, dalam metode divisive kita beranjak
dari sebuah cluster besar yang terdiri dari semua obyek atau observasi.
Selanjutnya, obyek atau observasi yang paling tinggi nilai ketidakmiripannya kita
pisahkan demikian seterusnya.
Agglomerative
Dalam agglomerative ada lima metode yang cukup terkenal, yaitu: Single
Linkage, Complete Linkage, Average Linkage, Ward’s Method, Centroid Method.
Single Linkage, prosedur ini didasarkan pada jarak terkecil. Jika dua obyek
terpisah oleh jarak yang pendek maka kedua obyek tersebut akan digabung
menjadi satu cluster daan demikian saterusnya.
Average Linkage, prosedure ini hampir sama dengan Single Linkage maupun
Complete Linkage, namun kriteria yang digunakan adalah rata-rata jarak
seluruh individu dalam suatu cluster dengan jarak seluruh individu dalam
cluster yang lain.
Ward’s Method, jarak antara dua cluster dalam metode ini berdasarkan total
sum of square dua cluster pada masing-masing variabel.
Centroid Method, jarak antara dua cluster dalam metode ini berdasarkan jarak
centroid dua cluster yang bersangkutan.
Non-Hirarchial Methode
Berbeda dengan metode hirarki, metode ini justru dimulai dengan terlebih dahulu
jumlah cluster yang diinginkan (dua cluster, tiga cluster atau yang lain). Setelah
jumlah cluster diketahui, baru proses cluster dilakukan tanpa mengikuti proses
hirarki. Metode ini biasa disebut dengan K-Means Cluster.
Kebalikan dari metode hirarki, metode nonhirarki tidak meliputi proses “treelike
construction“. Justru menempatkan objek-objek ke dalam cluster sekaligus
sehingga terbentuk sejumlah cluster tertentu. Langkah pertama adalah memilih
sebuah cluster sebagai inisial cluster pusat, dan semua objek dalam jarak tertentu
ditempatkan pada cluster yang terbentuk. Kemudian memilih cluster selanjutnya
dan penempatan dilanjutkan sampai semua objek ditempatkan. Objek-objek bisa
ditempatkan lagi jika jaraknya lebih dekat pada cluster lain daripada cluster
asalnya.
Pendekatan Metode non hirarki cluster
Metode nonhirarki cluster berkaitan dengan K-means custering, dan ada tiga
pendekatan yang digunakan untuk menempatkan masing-masing observasi pada
satu cluster.
Sequential Threshold, Metode Sequential Threshold
Setelah cluster terbentuk, entah dengan metode hirarki atau non-hirarki, langkah
selanjutnya adalah melakukan interprestasi terhadap cluster yang terbentuk, yang pada
intinya memberi nama spesifik untuk menggambarkan isi cluster. Misalnya,
kelompok konsumen yang memperhatikan lingkungan sekitar sebelum membeli
sebuah rumah bisa dinamai “cluster lingkungan”.
Melakukan validasi dan profiling cluster. Cluster yang terbentuk kemudian diuji apakah hasil
tersebut valid. Kemudian dilakukan proses profiling untuk menjelaskan karakteristik setiap
cluster berdasarkan profil tertentu (seperti usia konsumen pembeli rumah, tingkat
penghasilannya dan sebagainya). Analisis cluster agak bersifat subjektif dalam penentuan
penyelesaian cluster yang optimal, sehingga peneliti seharusnya memberikan perhatian yang
besar mengenai validasi dan jaminan tingkat signifikansi pada penyelesaian akhir dari cluster.
Meskipun tidak ada metode untuk menjamin validitas dan tingkat signifikansi , beberapa
pendekatan telah dikemukakan untuk memberikan dasar bagi perkiraan peneliti.
Untuk melakukan proses analisis cluster ini, ada asumsi yang harus terpenuhi, yaitu:
Sampel yang diambil benar-benar dapat mewakili populasi yang ada (representativeness of
the sample) dan Multikolinieritas. Sedangkan asumsi lainnya yang biasanya dilakukan pada
analisis multivariat tidak perlu dilakukan, seperti: Uji Normalitas, Uji Linearitas dan Uji
Heteroskedastisitas.
Analisis Korespondensi
Analisis korespondensi merupakan metode analisis untuk merepresentasikan data tabulasi secara
grafis, yang dalam bentuk umumnya dapat dikenal sebagai scatterplot. Scatterplot merupakan
representasi dari data sebagai sekumpulan titik berkaitan dengan dua sumbu koordinat
tegaklurus dimana didalamnya terletak sekumpulan titik sehingga dapat diinterpretasikan jarak
antar titik tersebut, selanjutnya dapat dipandang sebagai peta spasial dari data. Analisis
Korespondensi merupakan teknik eksplorasi data yang dilakukan pada data kategori dimana
tidak terdapat hipotesis yang spesifik. Secara spesifik, Analisis Korespondensi bekerja pada tabel
dua-arah atau multi-arah dimana setiap barisdan kolomnya menjadi titik pada peta grafik multi-
dimensi
Penentuan jarak profil dihitung baris atau kolom dalam kategori yang sama, menggunakan jarak
weighted Euclidean distance) – untuk mengukur jarak antara titik pada grafik. Dengan kata lain,
jarak chi-square mengukur asosiasi antara banyak variabel. Oleh karena Analisis Korespondensi
merupakan statistik non-parametrik, maka tidak terdapat distribusi secara teoritik yang mana
dalam suatu model dalam dimensi paling kecil. Dimensi yang digunakan biasanya dua atau
tiga sesuai dengan tujuan penelitian, namun untuk menghitung dimensi yang melibatkan
Manfaat Analisis Korespondensi yaitu dapat menyederhanakan data yang kompleks yang
berasal dari tabel berdimensi banyak atau berukuran besar menjadi tampilan yang lebih
data. Manfaat lain dari Analisis Korespondensi yaitu menyajikan data melalui tampilan yang
mewakili data baris dan data kolom, sehingga data lebih mudah dibandingkan.
Analisis Korespondensi bersifat fleksibel terhadap asumsi dan skala data. Pada data yang
menggunakan Skala Likert, analisis korespondensi merupakan teknik analisis yang berguna,
karena fokus utamanya pada bagaimana peubah atau variabel memiliki kesesuaian satu sama
lain dan bukan apakah terdapat perbedaan yang signifikan antara peubah-peubah
tersebut. Analisis Korespondensi dapat digunakan pada data kontinyu, dimana sebelumnya
dibuat menjadi kelompok atau dibuat dalam bentu kategori yang selanjutnya dianalisis
Analisis diskriminan mempunyai asumsi bahwa data berasal dari multivariate normal distribution
dan matrik kovarian kedua kelompok perusahaan adalah sama. Asumsi multivariate normal
distribution penting untuk menguji signifikansi dari variabel diskriminator dan fungsi diskriminan.
Jika data tidak normal secara multivariate, maka secara teori uji signifikansi menjadi tidak valid. Hasil
klasifikasi menurut teori juga dipengaruhi oleh multivariate normal distribution. Apabila diketahui
bahwa asumsi multivariate normal distribution tidak dipenuhi maka sebaiknya menggunakan analisis
logistic regression. Logistic regression tidak memerlukan asumsi distribusi normal untuk variabel
bebasnya.
Data tentatif ini akan kita gunakan untuk menjelaskan teknik analisis diskriminan. Contoh berikut
adalah dua rasio keuangan EBITASS (rasio earning before interest and tax terhadap total asset) dan
ROTC (return on total capital) 24 sampel perusahaan yang dibagi ke dalam dua kelompok yaitu 12
perusahaan sehat dan 12 perusahaan bangkrut.
Apabila data ini kita plot, maka dapat dilihat sampai seberapa jauh kedua rasio keuangan ini mampu
membedakan kedua kelompok perusahaan sehat dan perusahaan bangkrut.
Gambar di atas menunjukkan bahwa kedua kelompok perusahaan sehat dan bangkrut dapat
dipisahkan secara nyata dilihat dari rasio EBITASS DAN ROTC. Hal ini berarti bahwa setiap rasio
keuangan dapat membedakan dua kelompok perusahaan sehat dan bangkrut. Melihat perbedaan
dua kelompok perusahaan dengan hanya melihat satu variabel disebut dengan analisis univariate.
Uji statistik untuk univariate dapat dilakukan dengan uji beda t-test. Sedangkan melihat perbedaan
dua kelompok perusahaan berdasarkan pada kombinasi kedua rasio keuangan secara bersama-sama
disebut dengan analisis multivariate. Variabel yang memberikan pembeda (diskriminan) terbaik
disebut dengan variabel diskriminan (discriminator variable). Mengidentifikasi sekelompok variabel
yang dapat menjadi pembeda terbaik kedua kelompok perusahaan adalah tujuan utama dari analisis
diskriminan.
Apabila pada gambar di atas kita membuat axis baru Z yang merupakan garis diagonal dengan sudut
45o dari garis EBITASS, maka kita memproyeksikan katakanlah titik P pada garis diagonal Z dengan
persamaan :
Zp = w1 EBITASS + w2 ROTC
Besarnya w1 = cos 45 = 0,707 dan w2 = sin 45 = 0,707 dengan demikian persamaan Zp menjadi :
Persamaan ini merupakan kombinasi linear dari rasio keuangan EBITASS dan ROTC untuk perusahaan
P. Jadi proyeksi suatu titik pada garis Z memberikan variabel baru Z yang merupakan kombinasi
linear dari variabel rasio keuangan. Jadi tujuan kedua analisis diskriminan adalah mencari axis baru
yaitu Z dimana variabel baru Z memberikan maksimum kemampuan untuk membedakan antara dua
kelompok perusahaan. Axis baru ini disebut linear discriminant function atau sering disingkat
discriminant function. Proyeksi suatu titik pada discriminant function (atau nilai dari variabel baru Z)
disebut discriminant score. Tujuan ketiga yang ingin dicapai oleh analisis diskriminan adalah
pengelompokkan atau klasifikasi observasi ke dalam satu dari dua kelompok perusahaan di masa
datang.
Perbedaan rata-rata masing-masing rasio keuangan untuk kedua kelompok perusahaan sehat dan
bangkrut dapat diuji dengan uji beda t-test. Hasil uji t test dapat di bawah ini.
Nilai t hitung untuk EBITASS adalah 9,854 dan ROTC sebesar 11,528. Oleh karena nilai t hitung lebih
besar dari nilai t tabel pada tingkat signifikan 5%, maka dapat disimpulkan bahwa kedua rasio
keuangan ini mampu membedakan kedua kelommpok perusahaan dan akan digunakan untuk
membentuk fungsi diskriminan. U t test hanya berdasarkan pada pendekatan univariate, yaitu uji t
test untuk masing-masing rasio keuangan. Pendekatan yang lebih disukai adalah dengan uji
multivariate, di mana kedua rasio keuangan diuji secara simultan atau bersama-sama.
Misalkan kombinasi linear atau fungsi diskrimina yang membentuk variabel baru (score discriminant)
sebagai berikut :
Z = w1 EBITASS + w2 ROTC
Di mana Z adalah fungsi diskriminan, maka tujuan analisis diksriminan adalah menentukan nilai w1
dan w2 dari fungsi diskriminan di atas agar memaksimumkan nilai lambda.
Fungsi diskriminan didapat dengan memaksimumkan nilai lambda dan disebut Fisher's linear
discriminant function.
a. buka file
b. dari menu utama SPSS, pilih menu Statistics/Analyze kemudian submenu Classify, lalu pilih
Discriminant.
c. tampak di layar windows Discriminant Analysis.
d. pada Box Grouping Variable isikan CODE dan definisikan perusahaan sehat 1 dan bangkrut 2.
e. pada Box Independent isikan variabel EBITASS dan ROTC.
f. pilih Statistics dan aktifkan pilihan test statistics descriptive, Matrice dan function coefficient.
Penilaian signifikan variabel diskriminan dapat dilihat dari nilai rata-rata dari rasio keuangan apakah
berbeda secara signifikan untuk perusahaan sehat dan bangkrut. Untuk menguji apakah ada
perbedaan secara signifikan antara kedua kelompok perusahaan dapat dilakukan dengan uji t test.
Alternatif lain adalah dengan menggunakan Wilk's L test statistics. Semakin kecil nilai Wilk's L maka
semakin besar probabilitas hipotesis nol (tidak ada perbedaan rata-rata populasi) ditolak. Untuk
menguji signifikansi nilai Wilk's L maka dapat dikonversikan kedalam F ratio.
Dari tampilan group statistik jelas bahwa nilai rata-rata kedua rasio keuangan antara perusahaan
sehat dan bangkrut berbeda yaitu 0,18533 untuk perusahaan sehat dan 0,035167 untuk perusahaan
bangkrut dilihat dari rasio EBITASS. Sedangkan rasio ROTC dengan rata-rata 0,18350 untuk
perusahaan sehat dan 0,00333 untuk perusahaan bangkrut.
Dilihat dari test statistik Wilk's L jelas ada perbedaan secara signifikan yaitu untuk EBITASS nilai
Wilk's L sebesar 0,185 dan signifikan pada 0,000. Sedangkan nilai Wilk's L ROTC sebesar 0,142 juga
signifikan pada 0,000. Hasil ini menunjukkan bahwa kedua variabel rasio keuangan dapat digunakan
untuk membentuk variabel diskriminan.
Persamaan estimati fungsi diskriminan unstandardized dapat dilihat dari output Canonical
Discriminant Function Coefficient dengan persamaan sebagai berikut :
Untuk menguji signifikansi statistik dari fungsi diskriminan digunakan multivariate test of
signifikance. Oleh karena dalam kasus ini lebih dari satu variabel deskriminator yaitu EBITASS dan
ROTC, maka untuk menguji perbedaan kedua kelompok perusahaan untuk semua variabel secara
bersama-sama digunakan multivariate test. Uji Wilk's L dapat diaproksimasi dengan statistik Chi-
square.
Besarnya nilai Wilk's L sebesar 0,115 atau sama dengan Chi-square 45,498 dan ternyata nilai ini
signifikan pada 0,000 maka dapat disimpulkan bahwa fungsi diskriminan signifikan secara statistik
yang berarti nilai rata-rata score diskriminan untuk kedua kelompok perusahaan berbeda secara
nyata.
Walaupun secara statistik perbedaan kedua kelompok perusahaan itu signifikan, tetapi untuk tujuan
praktis perbedaan kedua kelompok perusahaan tadi tidak begitu besar. Hal ini dapat terjadi pada
kasus dengan jumlah sampel yang besar. Untuk menguji seberapa besar dan berarti perbedaan
antara kedua kelompok perusahaan dapat dilihat dan nilai Square Canonical Correlation (CR2).
Square Canonical Correlation identik dengan R2 pada regresi yaituu mengukur variasi antara kedua
kelompok perusahaan yang dapat dijelaskan oleh variabel diskriminannya. Jadi CR2 mengukur
sebagai kuat fungsi diskriminan.
Tampilan output Eigenvalues menunjukkan bahwa besarnya Canonical Correlation adalah sebesar
0,941 atau besarnya Square Canonical Correlation (CR2) = (0,941)2 atau sama dengan 0,885. Jadi
dapat disimpulkan bahwa 88,5% variasi antara kelompok perusahaan sehat dan bangkrut yang dapat
dijelaskan oleh variabel diskriminan rasio EBITASS dan ROTC.
Menilai pentingnya variabel diskriminan dan arti dari fungsi diskriminan dapat dilakukan dengan
melihat fungsi diskriminan standardized.
Oleh karena score diskriminan adalah indeks gabungan atau kombinasi linear dari variabel awal,
maka perlu untuk mengetahui apakah arti dari score diskriminan. Nilai loading dari structure
coefficient dapat digunakan untuk menginterpretasikan kontribusi setiap variabel untuk membentuk
fungsi diskriminan. Nilai loading variabel diskriminator merupakan korelasi antara score diskriminan
dan variabel diskriminator dan nilai loading akan berkisar +1 dan -1. Makin mendekati 1 (satu) nilai
absolut dari loading, maka tinggi komunalitas antara variabel diskriminan dan fungsi diskriminan dan
sebaliknya. Tampilan struktur matrik menunjukkan bahwa besarnya loading untuk EBITASS 0,756
dan besarnya loading untuk ROTC sebesar 0,884. Oleh karena loading kedua variabel rasio keuangan
ini tinggi, maka score diskriminan dapat diinterpretasikan sebagai ukuran kesehatan keuangan
perusahaan.
Tujuan ketiga dari analisis diskriminan adalah mengklasifikasikan observasi di masa datang ke dalam
satu dari dua kelompok perusahaan. Output SPSS memberikan nilai tingkat klasifikasi sebesar 100%.
Klasifikasi dari observasi secara esensial akan mengurangi pembagian ruang diskriminan ke dalam
dua region. Nilai score diskriminan yang membagi ruang kedalam dua region disebut nilai cutoff.
Makin tinggi nilai EBITASS dan ROTC makin tinggi nilai score diskriminan dan sebaliknya. Oleh karena
perusahaan yang mempunyai kesehatan keuangan akan memiliki nilai yang lebih tinggi untuk kedua
rasio keuangan, perusahaan yang sehat akan memiliki score diskriminan lebih tinggi daripada
perusahaan bangkrut. Jadi perusahaan akan dikelompokkan sebagai perusahaan dapat sehat jika
score diskriminannya lebih tinggi daripada nilai cutoff dan perusahaan akan dikelompokkan sebagai
perusahaan bangkrut jika score diskriminannya lebih kecil dari nilai cutoff.
Secara umum nilai cutoff yang dipilih nilai yang meminimumkan jumlah incorrect classification atau
kesalahan misklasifikasi atau dapat dihitung dengan rumus:
Di mana Zj adalah rata-rata score diskriminan kelompok j. Rumus ini berasumsi jumlah sampel kedua
kelompk sama. Dalam hal jumlah sampel kedua kelompok tidak sama maka rumus cutoff menjadi :
Cutoff = (n1Z1 + n2Z2) / (n1 + n2)
Di mana ng adalah jumlah observasi pada kelompok g. Tampilan output SPSS memberikan rata-rata
score diskriminan untuk kelompok 1 sebesar 2,662 dan rata-rata score diskriminan untuk kelompok
2 sebesar -2,662 dan memberikan nilai cutoff nol.
Ringkasan nilai klasifikasi dapat dilihat pada classification matrix atau confussion matrix. Hasil matrik
klasifikasi menunjukkan bahwa seluruh observasi telah diklasifikasikan secara benar dengan
ketepatan 100%.
Membentuk fungsi diskriminan yang optimal diperlukan beberapa asumsi terhadap data yang
digunakan. Asumsi ini antara lain adalah data pada variabel bebas seharusnya berdistribusi
normal multivariat dan adanya kesamaan matriks varians-kovarians antar kelompok.
Dalam penyusunan fungsi diskriminan ada dua metode yang dapat digunakan, yaitu estimasi
simultan dan estimasi stepwise. Cara mengetahui variabel bebas yang dapat mendiskriminasi
suatu kelompok adalah menggunakan statistik uji Wilks Lamda, yaitu:
Fungsi diskriminan adalah kombinasi linear dari variabel-variabel yang dimiliki oleh
kelompok-kelompok yang akan diklasifikasikan. Untuk dua grup dapat dilakukan
menggunakan fungsi diskriminan linier Fisher, yaitu:
Nilai fungsi diskriminan Z merupakan dasar untuk menentukan suatu objek masuk kelompok
yang mana dengan membandingkannya dengan rata-rata (centroid) dari nilai Z masing-
masing kelompok. Jika ada dua kelompok masing-masing A dan B, maka
Sedangkan ketepatan prediksi pengelompokan secara tepat dapat menggunakan rumus Hit
Ratio.
Penjelasan Analisis Faktor – PCA dan CFA
Analisis Faktor
Analisis faktor adalah sebuah teknik yang digunakan untuk mencari faktor-faktor yang
mampu menjelaskan hubungan atau korelasi antara berbagai indikator independen yang
diobservasi.
Analisis faktor merupakan perluasan dari analisis komponen utama. Digunakan juga untuk
mengidentifikasi sejumlah faktor yang relatif kecil yang dapat digunakan untuk menjelaskan
sejumlah besar variabel yang saling berhubungan.
Sehingga variabel-variabel dalam satu faktor mempunyai korelasi yang tinggi, sedangkan
korelasi dengan variabel-variabel pada faktor lain relatif rendah. Tiap-tiap kelompok dari
variabel mewakili suatu konstruksi dasar yang disebut faktor. Untuk meningkatkan daya
interpretasi faktor, harus dilakukan transformasi pada matriks loading. Transformasi
dilakukan dengan merotasi matriks tersebut dengan metode varimax, quartimax, equamax,
quartimin, biquartimin dan covarimin serta oblimin.
Analisis Faktor
Hasil rotasi ini akan mengakibatkan setiap variabel asal mempunyai korelasi tinggi dengan
faktor tertentu saja dan dengan faktor yang lain korelasi relatif rendah sehingga setiap faktor
akan lebih mudah untuk diinterpretasikan. Untuk mengetahui rotasi mana yang sesuai
digunakan Μ2min yang dihasilkan dari analisis procrustes.
Analisis procrustes adalah suatu teknik analisis yang digunakan untuk membandingkan dua
konfigurasi. Dalam hal ini konfigurasi data hasil analisis factor yang sudah dirotasi
dibandingkan dengan data asal. Sebelum kedua data dibandingkan terlebih dahulu kedua data
diproses berdasarkan penetapan dan penyesuaian posisi. Penetapan dan penyesuaian dengan
posisi dilakukan dengan transformasi yaitu transformasi translasi, rotasi maupun dilasi yang
dibuat sedemikian sehingga diperoleh jarak yang sedekat mungkin. Setelah proses tersebut
dilakukan dapat diketahui sejauh mana konfigurasi data analisis faktor dapat menggambarkan
data asal.
1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak menjadi sejumlah variabel
baru yang jumlahnya lebih sedikit dari variabel asal, dan variabel baru tersebut dinamakan
faktor atau variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antarvariabel penyusun faktor atau dimensi
dengan faktor yang terbentuk, dengan menggunakan pengujian koefisien korelasi antar
faktor dengan komponen pembentuknya. Analisis faktor ini disebut analisis faktor
konfirmatori.
3. Untuk menguji valisitas dan reliabilitas instrumen dengan analisis faktor konfirmatori.
4. Validasi data untuk mengetahui apakah hasil analisis faktor tersebut dapat digeneralisasi ke
dalam populasinya, sehingga setelah terbentuk faktor, maka peneliti sudah mempunyai
suatu hipotesis baru berdasarkan hasil analisis tersebut.
Analisis faktor pada dasarnya dapat dibedakan secara nyata menjadi dua macam yaitu:
Analisis faktor eksploratori atau analisis komponen utama (PCA = principle component
analysis) yaitu suatu teknik analisis faktor di mana beberapa faktor yang akan terbentuk
berupa variabel laten yang belum dapat ditentukan sebelum analisis dilakukan.
Pada prinsipnya analisis faktor eksploratori di mana terbentuknya faktor-faktor atau variabel
laten baru adalah bersifat acak, yang selanjutnya dapat diinterprestasi sesuai dengan faktor
atau komponen atau konstruk yang terbentuk. Analisis faktor eksploratori persis sama dengan
anlisis komponen utama (PCA).
Dalam analisis faktor eksploratori di mana peneliti tidak atau belum mempunyai pengetahuan
atau teori atau suatu hipotesis yang menyusun struktur faktor-faktornya yang akan dibentuk
atau yang terbentuk, sehingga dengan demikian pada analisis faktor eksploratori merupakan
teknik untuk membantu membangun teori baru.
Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari variabel asal
atau variabel awal menjadi variabel baru atau faktor yang jumlahnya lebih kecil dari pada
variabel awal. Proses analisis tersebut mencoba untuk menemukan hubungan antarvariabel
baru atau faktor yang terbentuk yang saling independen sesamanya, sehingga bisa dibuat satu
atau beberapa kumpulan variabel laten atau faktor yang lebih sedikit dari jumlah variabel
awal yang bebas atau tidak berkorelasi sesamanya. Jadi antar faktor yang terbentuk tidak
berkorelasi sesamanya.
Pada dasarnya tujuan analisis faktor konfirmatori adalah: pertama untuk mengidentifikasi
adanya hubungan antar variabel dengan melakukan uji korelasi. Tujuan kedua untuk menguji
validitas dan reliabilitas instrumen. Dalam pengujian terhadap validitas dan reliabilitas
instrumen atau kuesioner untuk mendapatkan data penelitian yang valid dan reliabel dengan
analisis faktor konfirmatori.
1. Merumuskan masalah.
2. Menyusun matriks korelasi.
3. Ekstraksi faktor.
4. Merotasi factor.
5. Interpretasikan Faktor.
6. Pembuatan factor scores.
7. Pilih variabel surrogate atau tentukan summated scale.
Merumuskan masalah
Di dalam melakukan analisis faktor, keputusan pertama yang harus diambil oleh peneliti
adalah menganalisis apakah data yang ada cukup memenuhi syarat di dalam analisis faktor.
Langkah pertama ini dilakukan dengan mencari korelasi matriks antara indicator-indikator
yang diobservasi. Ada beberapa ukuran yang bisa digunakan untuk syarat kecukupan data
sebagai rule of thumb yaitu:
1. Korelasi matriks antar indikator: Metode yang pertama adalah memeriksa korelasi matriks.
Tingginya korelasi antara indikator mengindikasikan bahwa indikator-indikator tersebut
dapat dikelompokkan ke dalam sebuah indikator yang bersifat homogen sehingga setiap
indikator mampu membentuk faktor umum atau faktor konstruk. Sebaliknya korelasi yang
rendah antara indikator megindikasikan bahwa indikator-indikator tersebut tidak homogen
sehingga tidak mampu membentuk faktor konstruk.
2. Korelasi parsial: Metode kedua adalah memeriksa korelasi parsial yaitu mencari korelasi satu
indikator dengan indikator lain dengan mengontrol indikator lain. Korelasi parsial ini disebut
dengan negative anti-image correlations.
3. Kaiser-Meyer Olkin (KMO) : Metode ini paling banyak digunakan untuk melihat syarat
kecukupan data untuk analisis faktor. Metode KMO ini mengukur kecukupan sampling
secara menyeluruh dan mengukur kecukupan sampling untuk setiap indikator.
Ekstraksi faktor
Ekstraksi Faktor adalah suatu metode yang digunakan untuk mereduksi data dari beberapa
indikator untuk menghasilkan faktor yang lebih sedikit yang mampu menjelaskan korelasi
antara indikator yang diobservasi. Ada beberapa metode yang bisa digunakan untuk
melakukan ekstraksi faktor yaitu:
Merotasi Faktor
Setelah kita melakukan ekstraksi faktor, langkah selanjutnya adalah rotasi faktor (rotation).
Rotasi faktor ini diperlukan jika metode ekstraksi faktor belum menghasilkan komponen
faktor utama yang jelas. Tujuan dari rotasi faktor ini agar dapat memperoleh struktur faktor
yang lebih sederhana agar mudah diinterpretasikan. Ada beberapa metode rotasi faktor yang
bisa digunakan yaitu:
1. Varimax Method: Adalah metode rotasi orthogonal untuk meminimalisasi jumlah indikator
yang mempunyai factor loading tinggi pada tiap faktor.
2. Quartimax Method: Merupakan metode rotasi untuk meminimalisasi jumlah faktor yang
digunakan untuk menjelaskan indikator.
3. Equamax Method: Merupakan metode gabungan antara varimax method yang
meminimalkan indikator dan quartimax method yang meminimalkan faktor.
Interpretasikan Faktor
Setelah diperoleh sejumlah factor yang valid, selanjutnya kita perlu menginterprestasikan
nama-nama factor, mengingat factor merupakan sebuah konstruk dan sebuah konstruk
menjadi berarti kalau dapat diartikan. Interprestasi factor dapat dilakukan dengan mengetahui
variable-variabel yang membentuknya. Interprestasi dilakukan dengan judgment. Karena
sifatnya subjektif, hasil bisa berbeda jika dilakukan oleh orang lain.
Faktor score yang dibuat, berguna jika akan dilakukan analisis lanjutan, seperti analisis
regresi, analisis diskriminan atau analisis lainnya.
1. Variabel surrogate adalah satu variable yang paling dapat mewakili satu factor. Misak factor
1 terdiri dari variable X1, X2 dan X3. Maka yang paling mewakili factor 1 adalah variable yang
memiliki factor loading terbesar. Apabila factor loading tertinggi dalam satu factor ada yang
hampir sama, missal X1 = 0,905 dan X2 = 0,904 maka sebaiknya pemilihan surrogate variable
ditentukan berdasarkan teori, yaitu variable mana secara teori yang paling dapat mewakili
factor. Atau cara lain adalah dengan menggunakan Summated Scale.
2. Summated Scale adalah gabungan dari beberapa variable dalam satu factor, bisa berupa
nilai rata-rata dari semua factor tersebut atau nilai penjumlahan dari semua variable dalam
satu factor.
Analisis faktor adalah salah satu teknik statistika yang dapat digunakan untuk memberiikan deskripsi
yang relatif sederhana melalui reduksi jumlah peubah yang disebut faktor. Analisis faktor adalah
prosedur untuk mengidentifikasi item atau variabel berdasarkan kemiripannya. Kemiripan tersebut
ditunjukkan dengan nilai korelasi yang tinggi. Item-item yang memiliki korelasi yang tinggi akan
membentuk satu kerumunan faktor.Prinsip dasar dalam analisis faktor adalah menyederhanakan
deskripsi tentang data dengan mengurangi jumlah variabel/ dimensi.
1. Menguji ketepatan model (goodness of fit test) faktor yang terbentuk dari item-item alat
ukur.
2. Menguji kesetaraan unit pengukuran antar item,
3. Menguji reliabilitas item-item pada tiap faktor yang diukur,
4. Menguji adanya invarian item pada populasi.
Seorang peneliti merancang sebuah alat ukur mengenai dukungan sosial. Alat ukur tersebut berisi
seperangkat aitem yang diturunkan dari lima dimensi dukungan sosial. Peneliti berusaha
memastikan apakah alat ukur yang dibuatnya benar-benar menjelaskan kelima dimensi tersebut. Ia
kemudian melakukan analisis faktor konfirmatori. Hasil dari analisis faktor menunjukkan bahwa
pembagian kelima faktor akhirnya dibuktikan.
Dimensionalitas pengukuran adalah banyaknya atribut yang diukur oleh sebuah alat ukur. Alat ukur
yang unidimensi mengukur satu atribut psikologis saja sedangkan alat ukur yang multidimensi
mengukur lebih dari satu atribut ukur. Pengukuran dalam bidang psikologi didominasi oleh
pengukuran unidimensi karena alat ukur yang dikembangkan peneliti psikologi biasanya mengukur
satu target ukur saja. Misalnya Skala Kecemasan, skala ini diharapkan mengukur atribut kecemasan
saja dan tidak mengukur atribut yang lain. Untuk mengetahui apakah alat ukur yang dikembangkan
oleh peneliti mengukur satu atribut atau banyak atribut diperlukan analisis faktor.
Penyusunan alat ukur psikologi biasanya diawali dari penurunan konsep menjadi komponen atau
aspek konsep sebelum diturunkan menjadi aitem berupa pernyataan skala. Untuk mengidentifikasi
apakah item-item yang diturunkan dari komponen alat ukur mewakili komponen tersebut maka
diperlukan analisis faktor. Analisis faktor juga dapat menunjukkan apakah antar komponen memiliki
keterkaitan ataukah tidak (independen).
2. Uji kelayakan data (menggunakan basis faktor) apakah cocok dilakukan analisis faktor.
5. Mencari proporsi keragaman atau berguna untuk mengetahui berapa faktor yang akan terbentuk.
6. Mengalokasikan setiap variabel asal kedalam faktor sesuai dengan nilai loading.
7. Apabila terdapat nilai loading yang identik atau hampir sama maka lakukan rotasi baik dengan
cara orthogonal ataupun non orthogonal.
8. Setelah yakin dengan faktor yang terbentuk , maka berikan penamaan pada faktor tersebut
dengan cara melihat variabel-variabel apa saja yang menyusun faktor tersebut.
1. Principal component
Jumlah varian dalam data dipertimbangkan. Diagonal matrik korelasi terdiri dari angka satu dan full
variance dibawa dalam matriks faktor. Principal component direkomendasikan jika hal yang pokok
adalah menentukan bahwa banyaknya faktor harus minimum dengan memperhitungkan varians
maksimum dalam data untuk dipergunakan di dalam analysis multivariate lebih lanjut.
Faktor diestimasi hanya didasarkan pada common variance, communalities dimasukkan dalam
matrik korelasi. Metode ini dianggap tepat jika tujuan utamanya mengenali/mengidentifikasi
dimensi yang mendasari dan common variance yang menarik perhatian.
Maksud melakukan analysis faktor adalah mencari variable baru yang disebut faktor yang tidak
saling berkorelasi, bebas satu sama lain, lebih sedikit dari variable asli, tapi dapat menyerap sebagian
besar informasi yang terkandung dalam variable asli atau yang dapat memberikan sumbangan
terhadap varian seluruh variable. Lalu berapa faktor yang perlu disajikan? Ada beberapa cara;
1. Penentuan Apriori
Kadang karena peneliti sebelumnya sudah mengetahui berapa faktor yang digunakan maka kita akan
menentukan dulu berapa faktor yang akan digunakan.
Dapat dilihat dari grafik screeplot dimana scree mulai terjadi menunjukkan banyak faktor yang
benar, tepatnya ketika scree mulai mendatar. Kenyataan menunjukkan bahwa penentuan banyaknya
faktor dengan screeplot akan mencapai satu atau lebih banyak dari penentuan dengan eigenvalue.
Banyak faktor diekstraksi ditentukan sedemikian rupa sehingga kumulatif presentase varian yang
diekstraksi oleh faktor mancapai suatu level tertentu yang memuaskan. Ekstraksi faktor dihentikan
jika kumulatif presentase varian sudah mencapai paling sedikit 60% atau 75% dari seluruh varian
variable asli.
ANALISIS FAKTOR
Analisis faktor (factor analysis) adalah salah satu keluarga analisis multivariate yang
bertujuan untuk meringkas atau mereduksi variable amatan secara keseluruhan menjadi
beberapa variable atau dimensi baru, akan tetapi variable atau dimensi baru yang terbentuk
tetap mampu merepresentasikan variable utama. Dalam analisis factor, dikenal dua
pendekatan utama, yaitu exploratory factor analysis dan confirmatory factor analysis. Kita
menggunakan exploratory factor analysis bila banyaknya factor yang terbentuk tidak
ditentukan terlebih dahulu. Sebaliknya confirmatory factor analysis digunakan apabila factor
yang terbentuk telah ditetapkan terlebih dahulu.
Asumsi mendasar yang harus digarisbawahi dalam analisis factor adalah bahwa variable-
variabel yang dianalisis memiliki keterkaitan atau saling berhubungan karena analisis factor
berusaha untuk mencari common dimension (kesamaan dimensi) yang mendasari variable-
variabel itu.
Tujuan utama analisis faktor adalah untuk menjelaskan struktur hubungan di antara banyak
variabel dalam bentuk faktor atau vaiabel laten atau variabel bentukan. Faktor yang terbentuk
merupakan besaran acak (random quantities) yang sebelumnya tidak dapat diamati atau
diukur atau ditentukan secara langsung. Selain tujuan utama analisis faktor, terdapat tujuan
lainnya adalah:
1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak menjadi sejumlah variabel
baru yang jumlahnya lebih sedikit dari variabel asal, dan variabel baru tersebut dinamakan
faktor atau variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antarvariabel penyusun faktor atau dimensi
dengan faktor yang terbentuk, dengan menggunakan pengujian koefisien korelasi
antarfaktor dengan komponen pembentuknya. Analisis faktor ini disebut analisis faktor
kofirmatori.
3. Untuk menguji valisitas dan reliabilitas instrumen dengan analisis faktor konfirmatori.
4. Validasi data untuk mengetahui apakah hasil analisis faktor tersebut dapat digeneralisasi ke
dalam populasinya, sehingga setelah terbentuk faktor, maka peneliti sudah mempunyai
suatu hipotesis baru berdasarkan hasil analisis faktor.
Analisis faktor eksploratori atau analisis komponen utama (PCA = principle component
analysis) yaitu suatu teknik analisis faktor di mana beberapa faktor yang akan terbentuk
berupa variabel laten yang belum dapat ditentukan sebelum analisis dilakukan.
Pada prinsipnya analisis faktor eksploratori di mana terbentuknya faktor-faktor atau variabel
laten baru adalah bersifat acak, yang selanjutnya dapat diinterprestasi sesuai dengan faktor
atau komponen atau konstruk yang terbentuk. Analisis faktor eksploratori persis sama dengan
anlisis komponen utama (PCA).
Dalam analisis faktor eksploratori di mana peneliti tidak atau belum mempunyai pengetahuan
atau teori atau suatu hipotesis yang menyusun struktur faktor-faktornya yang akan dibentuk
atau yang terbentuk, sehingga dengan demikian pada analisis faktor eksploratori merupakan
teknik untuk membantu membangun teori baru.
Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari variabel asal
atau variabel awal menjadi variabel baru atau faktor yang jumlahnya lebih kecil dari pada
variabel awal. Proses analisis faktor eksploratori mencoba untuk menemukan hubungan
antarvariabel baru atau faktor yang terbentuk yang saling independen sesamanya, sehingga
bisa dibuat satu atau beberapa kumpulan variabel laten atau faktor yang lebih sedikit dari
jumlah variabel awal yang bebas atau tidak berkorelasi sesamanya. Jadi antar faktor yang
terbentuk tidak berkorelasi sesamanya.
Analisis faktor konfirmatori yaitu suatu teknik analisis faktor di mana secara apriori
berdasarkan teori dan konsep yang sudah diketahui dipahami atau ditentukan sebelumnya,
maka dibuat sejumlah faktor yang akan dibentuk, serta variabel apa saja yang termasuk ke
dalam masing-masing faktor yang dibentuk dan sudah pasti tujuannya. Pembentukan faktor
konfirmatori (CFA) secara sengaja berdasarkan teori dan konsep, dalam upaya untuk
mendapatkan variabel baru atau faktor yang mewakili beberapa item atau sub-variabel, yang
merupakan variabel teramati atau observerb variable.
Pada dasarnya tujuan analisis faktor konfirmatori adalah: pertama untuk mengidentifikasi
adanya hubungan antar variabel dengan melakukan uji korelasi. Tujuan kedua untuk menguji
validitas dan reliabilitas instrumen. Dalam pengujian terhadap validitas dan reliabilitas
instrumen atau kuesioner untuk mendapatkan data penelitian yang valid dan reliabel dengan
analisis faktor konfirmatori.
Apa sebenarnya path anlysis itu? Ada banyak definisi mengenai path anlysis ini, diantaranya:
“Analisis jalur merupakan perluasan dari regresi linier berganda, dan yang memungkinkan analisis
model-model yang lebih kompleks” (Streiner, 2005)
“Analisis jalur ialah suatu teknik untuk menganalisis hubungan sebab akibat yang tejadi pada regresi
berganda jika variabel bebasnya mempengaruhi variabel tergantung tidak hanya secara langsung tetapi
juga secara tidak langsung”. (Robert D. Retherford 1993).
Sedangkan menurut Paul Webley (1997): “Analisis jalur merupakan pengembangan langsung bentuk
regresi berganda dengan tujuan untuk memberikan estimasi tingkat kepentingan (magnitude) dan
signifikansi (significance) hubungan sebab akibat hipotetikal dalam seperangakat variabel.”
David Garson (2003) dari North Carolina State University mendefinisikan analisis jalur sebagai
“Model perluasan regresi yang digunakan untuk menguji keselarasan matriks korelasi dengan dua atau
lebih model hubungan sebab akibat yang dibandingkan oleh peneliti. Modelnya digambarkan dalam
bentuk gambar lingkaran dan panah dimana anak panah tunggal menunjukkan sebagai penyebab.
Regresi dikenakan pada masing-masing variabel dalam suatu model sebagai variabel tergantung
(pemberi respon) sedang yang lain sebagai penyebab. Pembobotan regresi diprediksikan dalam suatu
model yang dibandingkan dengan matriks korelasi yang diobservasi untuk semua variabel dan
dilakukan juga penghitungan uji keselarasan statistik.
Menurut penulis analisis jalur merupakan teknik analisis yang digunakan untuk menganalisis
hubungan sebab akibat yang inheren antar variabel yang disusun berdasarkan urutan temporer dengan
menggunakan koefesien jalur sebagai besaran nilai dalam menentukan besarnya pengaruh variabel
independen exogenous terhadap variabel dependen endogenous. (Jonathan Sarwono, 2011)
Dari definisi-definisi di atas dapat dsimpulkan bahwa sebenarnya analisis jalur dapat dikatakan sebagai
kepanjangan dari analisis regresi berganda, meski didasarkan sejarah terdapat perbedaan dasar antara
analisis jalur yang bersifat independen terhadap prosedur statistik dalam menentukan hubungan sebab
akibat; sedang regresi linier memang merupakan prosedur statistik yang digunakan untuk menganalisis
hubungan sebab akibat antar variabel yang dikaji.
Tujuan
Menerangkan mengapa variabel-variabel berkorelasi dengan menggunakan suatu model yang berurutan secara
temporer
Menggambar dan menguji suatu model matematis dengan menggunakan persamaan yang mendasarinya
Mengidentifikasi jalur penyebab suatu variabel tertentu terhadap variabel lain yang dipengaruhinya.
Menghitung besarnya pengaruh satu variabel independen exogenous atau lebih terhadap variabel dependen
endogenous lainnya.
• Kemampuan melakukan dekomposisi korelasi menjadi hubungan yang bersifat sebab akibat (causal relation),
seperti pengaruh langsung (direct effect) dan pengaruh tidak langsung (indirect effect) dan bukan sebab akibat
(non-causal association), seperti komponen semu (spurious).
• Analisis jalur hanya mempunyai variable – variabel yang dapat diobservasi secara langsung,
• Karena analisis jalur merupakan perpanjangan regresi linier berganda, maka semua asumsi dalam rumus ini
harus diikuti,
• Sebab –akibat dalam model hanya bersifat searah (one direction); tidak boleh bersifat timbal balik (reciprocal).
Beberapa asumsi dan prinsip – prinsip dasar dalam analisis jalur diantaranya ialah:
Linearitas (Linearity). Hubungan antar variabel bersifat linear, artinya jika digambarkan membentuk
garis lurus dari kiri bawah ke kanan atas, seperti gambar di bawah ini:
Persyaratan mutlak yang harus dipenuhi saat kita akan menggunakan analisis jalur disamping apa yang sudah
dibahas secara detil di bab 5, sebaiknya beberapa persyaratan ini tidak boleh dilanggar:
Terdapat variabel independen exogenous dan dependen endogenous untuk model regresi berganda dan variabel
perantara untuk model mediasi dan model gabungan mediasi dan regresi berganda serta model kompleks.
Ukuran sampel yang memadai, sebaiknya di atas 100 dan idealnya 400 - 1000
Pola hubungan antar variabel: pola hubungan antar variabel hanya satu arah tidak boleh ada hubungan timbal
balik (reciprocal)
Hubungan sebab akibat didasarkan pada teori yang sudah ada dengan asumsi sebelumnya menyatakan bahwa
memang terdapat hubungan sebab akibat dalam variabel-variabel yang sedang kita teliti.
Pertimbangkan hal-hal yang sudah dibahas dalam asumsi dan prinsip-prinsip dasar di bab sebelumnya.
Tahapan dalam Menggunakan Analisis Jalur
Tahapan dalam melakukan analisis jalur ialah:
1. Merancang model didasarkan pada teori. Sebagai contoh kita akan melihat pengaruh variabel kualitas produk,
harga dan pelayanan terhadap tingkat kepuasan pelanggan. Berangkat dari teori yang ada kemudian kita
membuat model yang dihipotesiskan.
2. Model yang dihipotesiskan: Pada bagian ini kita membuat hipotesis yang menyatakan, misalnya:
H0: Variabel variabel kualitas produk, harga dan pelayanan tidak berpengaruh terhadap tingkat kepuasan
pelanggan baik secara gabungan maupun parsial.
H1: Variabel variabel kualitas produk, harga dan pelayanan berpengaruh terhadap tingkat kepuasan pelanggan
baik secara gabungan maupun parsial.
3. Menentukan model diagram jalurnya didasarkan pada variabel – variabel yang dikaji.
Gambar 6.2 Model Diagram Jalur
4. Membuat diagram jalur: kemudian kita membuat diagram jalur seperti di bawah ini:
Dimana:
6. Melakukan prosedur analisis jalur dengan SPSS: Bagian ini akan dibahas di bab-bab contoh aplikasi selanjutnya
7. Menghitung nilai: Bagian ini akan dibahas di bab-bab contoh aplikasi selanjutnya
a. Pengaruh gabungan
b. Pengaruh parsial
c. Pengaruh langsung
d. Pengaruh tidak langsung
e. Pengaruh total
f. Pengaruh faktor lain
g. Korelasi
8. Uji validitas hasil analisis: Bagian ini akan dibahas di bab-bab contoh aplikasi selanjutnya
a. Dengan menggunakan nilai sig pada ANOVA untuk melihat model keseluruhan yang benar
dan pengaruh gabungan.
b. Dengan menggunakan uji t untuk pengaruh parsial
A. DEFINISI ANALISIS JALUR
Analisis jalur adalah suatu teknik pengembangan dari regresi linier ganda.Teknik ini
digunakan untuk menguji besarnya sumbangan (kontribusi) yang ditunjukkan oleh koefisien
jalur pada setiap diagram jalur dari hubungan kausal antar variabel X1 X2 dan X3 terhadap Y
serta dampaknya terhadap Z. “Analisis jalur ialah suatu teknik untuk menganalisis hubungan
sebab akibat yang tejadi pada regresi berganda jika variabel bebasnya mempengaruhi variabel
tergantung tidak hanya secara langsung tetapi juga secara tidak langsung”. (Robert D.
Retherford 1993).
David Garson dari North Carolina State University mendefinisikan analisis jalur sebagai
“Model perluasan regresi yang digunakan untuk menguji keselarasan matriks korelasi
dengan dua atau lebih model hubungan sebab akibat yang dibandingkan oleh peneliti.
Modelnya digambarkan dalam bentuk gambar lingkaran dan panah dimana anak panah
tunggal menunjukkan sebagai penyebab. Regresi dikenakan pada masing-masing variabel
dalam suatu model sebagai variabel tergantung (pemberi respon) sedang yang lain sebagai
penyebab. Pembobotan regresi diprediksikan dalam suatu model yang dibandingkan dengan
matriks korelasi yang diobservasi untuk semua variabel dan dilakukan juga penghitungan uji
keselarasan statistik. (David Garson, 2003).
Merujuk pendapat yang dikemukakan oleh Land, Ching, Heise, Maruyama, Schumaker dan
Lomax, Joreskog (dalam Kusnendi, 2008:147-148), karakteristik analisis jalur adalah metode
analisis data multivariat dependensi yang digunakan untuk menguji hipotesis hubungan
asimetris yang dibangun atas dasar kajian teori tertentu, dengan tujuan untuk mengetahui
pengaruh langsung dan tidak langsung seperangkat variabel penyebab terhadap variabel
akibat.
Menguji hipotesis hubungan asimetris yang dibangun atas kajian teori tertentu artinya yang
diuji adalah model yang menjelaskan hubungan kausal antarvariabel yang dibangun atas
kajian teori teori tertentu. Hubungan kausal tersebut secara eksplisit dirumuskan dalam
bentuk hipotesis direksional, baik positif maupun negative.
C. Beberapa istilah yang lazim digunakan dalam analisis jalur antara lain :
1. Model jalur. Model jalur ialah suatu diagram yang menghubungkan antara variabel
bebas, perantara dan tergantung. Pola hubungan ditunjukkan dengan menggunakan
anak panah. Anak panah-anak panah tunggal menunjukkan hubungan sebab–akibat
antara variabel-variabel exogenous atau perantara dengan satu variabel tergantung
atau lebih. Anak panah juga menghubungkan kesalahan (variabel residue) dengan
semua variabel endogenous masing-masing. Anak panah ganda menunjukkan korelasi
antara pasangan variabel-variabel exogenous.
2. Jalur penyebab untuk suatu variabel yang diberikan meliputi pertama jalur-jalur
arah dari anak-anak panah menuju ke variabel tersebut dan kedua jalur-jalur korelasi
dari semua variabel endogenous yang dikorelasikan dengan variabel-variabel yang
lain yang mempunyai anak panah-anak panah menuju ke variabel yang sudah ada
tersebut.
3. Variabel exogenous. Variabel – variabel exogenous dalam suatu model jalur ialah
semua variabel yang tidak ada penyebab-penyebab eskplisitnya atau dalam diagram
tidak ada anak-anak panah yang menuju kearahnya, selain pada bagian kesalahan
pengukuran. Jika antara variabel exogenous dikorelasikan maka korelasi tersebut
ditunjukkan dengan anak panah dengan kepala dua yang menghubungkan variabel-
variabel tersebut. Dalam istilah lain, dapat disebut pula sebagai independen variabel.
4. Variabel endogenous. Variabel endogenous ialah variabel yang mempunyai anak-
anak panah menuju kearah variabel tersebut. Variabel yang termasuk didalamnya
ialah mencakup semua variabel perantara dan tergantung. Variabel perantara
endogenous mempunyai anak panah yang menuju kearahnya dan dari arah variabel
tersebut dalam sutau model diagram jalur. Sedang variabel tergantung hanya
mempunyai anak panah yang menuju kearahnya. Atau dapat disebut juga sebagai
variabel dependen.
5. Koefesien jalur / pembobotan jalur. Koefesien jalur adalah koefesien regresi
standar atau disebut ‘beta’ yang menunjukkan pengaruh langsung dari suatu variabel
bebas terhadap variabel tergantung dalam suatu model jalur tertentu. Oleh karena itu,
jika suatu model mempunyai dua atau lebih variabel-variabel penyebab, maka
koefesien-koefesien jalurnya merupakan koefesien-koefesien regresi parsial yang
mengukur besarnya pengaruh satu variabel terhadap variabel lain dalam suatu model
jalur tertentu yang mengontrol dua variabel lain sebelumnya dengan menggunakan
data yang sudah distandarkan atau matriks korelasi sebagai masukan.
6. Variabel Laten dapat didefinisikan sebagai variabel penyebab yang tidak dapat
diobservasi secara langsung (unobservable). Pengamatan variabel tersebut diamati
melalui variabel manifesnya. Variabel manifest adalah variabel indicator terukur yang
dapat diobservasi secara langsung untuk mengukur variabel laten. Contoh : variabel
laten motivasi. Tidak bisa diobservasi secara langsung, namun melalui variabel
manifesnya (indicator) seperti kerja keras, pantang penyerah, tekun, teliti, dll.
7. Variabel Mediator / Intervening dan Moderator
8. Dalam statistik, analisis jalur atau biasa lebih dikenal dengan Path Analysis digunakan
untuk mengetahui hubungan ketergantungan langsung diantara satu set variabel. Path
Analysis adalah model yang serupa dengan model analisis regresi berganda, analisis
faktor, analisis korelasi kanonik, analisis diskriminan dan kelompok analisis
multivariat yang lebih umum lainnya seperti analisis anova, manova, anacova.
9. Dalam hal kausalitas, Path Analysis dapat dipandang sebagai analisis yang mirip
dengan analisis regresi. Keduanya sama-sama menganalisis model kausalitas.
Perbedaannya terletak pada tingkat kerumitan model. Model analisis regresi lebih
banyak menganalisis variabel dependent sebagai dampak dari variabel independent.
Variabel dependent tersebut tidak memberikan dampak terhadap variabel lainnya.
Ketika peneliti dihadapkan pada model dimana variabel dependent menyebabkan
variabel dependent lainnya, maka analisis jalur lebih cocok digunakan.
10. Dalam hal lainnya, analisis jalur juga dapat dilihat sebagai SEM (Structural Equation
Modeling) dimana analisis jalur adalah SEM yang hanya memiliki satu indikator, atau
model stuktural dari analisis SEM. Perbedaannya adalah analisis jalur hanya
menganalisis variabel konstruk, sedangkan pada SEM semua variabel baik variabel
indikator maupun variabel konstruk dianalisis secara bersama-sama dalam satu model.
11. Pemodelan Path Analysis
12. Pada model di bawah, model terdiri atas EX1 dan EX2 sebagai variabel eksogen yang
mana satu sama lain berkorelasi. Kedua variabel ini memiliki pengaruh langsung
terhadap En2 atau secara tidak langsung melalui variabel En1. En1 dan En2 disebut
sebagai variabel endogen. Dalam model riil, variabel eksogen dimungkinkan
dipengaruhi oleh variabel lain diluar EX1 dan EX2. Variabel lain diluar kedua
variabel ini disimbolkan sebagai e (variabel eror).
13.
14. Keunggulan Path Analysis dibandingkan analisis regresi berganda adalah:
15. 1. Peneliti dapat secara simultan mengukur pengaruh variabel eksogen terhadap
variabel endogen.
16. 2. Peneliti dapat menguji apakah model sudah cukup fit dengan data.
17. 3. Peneliti dapat menguji model yang memiliki permasalahan multikolinieritas
(korelasi yang tinggi antara variabel eksogen).
18. 4. Peneliti dapat melakukan pebandingan pengaruh langsung dan tidak langsung dari
variabel eksogen terhadap variabel endogen.