Anda di halaman 1dari 36

Tujuan Analisis Cluster

Tujuan utama analisis cluster adalah mengelompokkan objek-objek berdasarkan kesamaan


karakteristik di antara objek-objek tersebut. Objek bisa berupa produk (barang dan jasa),
benda (tumbuhan atau lainnya), serta orang (responden, konsumen atau yang lain). Objek
tersebut akan diklasifikasikan ke dalam satu atau lebih cluster (kelompok) sehingga objek-
objek yang berada dalam satu cluster akan mempunyai kemiripan satu dengan yang lain.

Definisi Analisis Cluster

Jadi definisi analisis cluster:

Analisis cluster adalah teknik multivariat yang mempunyai tujuan utama untuk
mengelompokkan objek-objek/cases berdasarkan karakteristik yang dimilikinya. Analisis
cluster mengklasifikasi objek sehingga setiap objek yang memiliki sifat yang mirip (paling
dekat kesamaannya) akan mengelompok kedalam satu cluster (kelompok) yang sama.

Secara logika, cluster yang baik adalah cluster yang mempunyai:

1. Homogenitas (kesamaan) yang tinggi antar anggota dalam satu cluster (within-
cluster).
2. Heterogenitas (perbedaan) yang tinggi antar cluster yang satu dengan cluster yang
lainnya (between-cluster).

Beberapa manfaat dari analisis cluster adalah: eksplorasi data peubah ganda, reduksi data,
stratifikasi sampling, prediksi keadaan obyek. Hasil dari analisis cluster dipengaruhi oleh:
obyek yang diclusterkan, peubah yang diamati, ukuran kemiripan (jarak) yang dipakai, skala
ukuran yang dipakai, serta metode pengclusteran yang digunakan.

Proses Analisis Cluster

Untuk menganalisis cluster, anda perlu melakukan proses sebagai berikut:

Tahap 1:

Mengukur kesamaan antar objek (similarity). Sesuai prinsip analisis cluster yang
mengelompokkan objek yang mempunyai kemiripan, proses pertama adalah mengukur
seberapa jauh ada kesamaan antar objek. Metode yang digunakan:

 Mengukur korelasi antar sepasang objek pada beberapa variabel


 Mengukur jarak (distance) antara dua objek. Pengukuran ada bermacam-macam, yang
paling popular adalah metode Euclidian distance.

Tahap 2:

Membuat cluster. Metode dalam membuat cluster ada banyak sekali, seperti yang
digambarkan dalam diagram di bawah ini:
Diagram
Analisis Cluster

Hirarchial Methode

Metode ini memulai pengelompokan dengan dengan dua atau lebih objek yang
mempunyai kesamaan paling dekat. Kemudian proses diteruskan ke objek lain
yang mempunyai kedekatan kedua. Demikian seterusnya sehingga cluster akan
membentuk semacam “pohon”, di mana ada hirarki (tingkatan) yang jelas antar
objek, dari yang paling mirip sampai paling tidak mirip. Secara logika semua
objek pada akhirnya akan membentuk sebuah cluster. Dendogram biasanya
digunakan untuk membantu memperjelas proses hirarki tersebut.

Kluster Hirarki

Dalam metode hirarki cluster terdapat dua tipe dasar yaitu agglomerative
(pemusatan) dan divisive (penyebaran). Dalam metode agglomerative, setiap
obyek atau observasi dianggap sebagai sebuah cluster tersendiri. Dalam tahap
selanjutnya, dua cluster yang mempunyai kemiripan digabungkan menjadi sebuah
cluster baru demikian seterusnya. Sebaliknya, dalam metode divisive kita beranjak
dari sebuah cluster besar yang terdiri dari semua obyek atau observasi.
Selanjutnya, obyek atau observasi yang paling tinggi nilai ketidakmiripannya kita
pisahkan demikian seterusnya.

Agglomerative

Dalam agglomerative ada lima metode yang cukup terkenal, yaitu: Single
Linkage, Complete Linkage, Average Linkage, Ward’s Method, Centroid Method.
 Single Linkage, prosedur ini didasarkan pada jarak terkecil. Jika dua obyek
terpisah oleh jarak yang pendek maka kedua obyek tersebut akan digabung
menjadi satu cluster daan demikian saterusnya.

 Complete Linkage, berlawanan dengan Single Linkage prosedur ini


pengelompokkannya berdasarkan jarak terjauh.

 Average Linkage, prosedure ini hampir sama dengan Single Linkage maupun
Complete Linkage, namun kriteria yang digunakan adalah rata-rata jarak
seluruh individu dalam suatu cluster dengan jarak seluruh individu dalam
cluster yang lain.

 Ward’s Method, jarak antara dua cluster dalam metode ini berdasarkan total
sum of square dua cluster pada masing-masing variabel.

 Centroid Method, jarak antara dua cluster dalam metode ini berdasarkan jarak
centroid dua cluster yang bersangkutan.

Manfaat Analisis Kluster Hirarki

Keuntungan penggunaan metode hierarki dalam analisis Cluster adalah


mempercepat pengolahan dan menghemat waktu karena data yang diinputkan
akan membentuk hierarki atau membentuk tingkatan tersendiri sehingga
mempermudah dalam penafsiran, namun kelemahan dari metode ini adalah
seringnya terdapat kesalahan pada data outlier, perbedaan ukuran jarak yang
digunakan, dan terdapatnya variabel yang tidak relevan. Sedang metode non-
hierarki memiliki keuntungan dapat melakukan analisis sampel dalam ukuran
yang lebih besar dengan lebih efisien. Selain itu, hanya memiliki sedikit
kelemahan pada data outlier, ukuran jarak yang digunakan, dan variabel tak
relevan atau variabel yang tidak tepat. Sedangkan kelemahannya adalah untuk
titik bakal random lebih buruk dari pada metode hirarkhi.

Non-Hirarchial Methode

Berbeda dengan metode hirarki, metode ini justru dimulai dengan terlebih dahulu
jumlah cluster yang diinginkan (dua cluster, tiga cluster atau yang lain). Setelah
jumlah cluster diketahui, baru proses cluster dilakukan tanpa mengikuti proses
hirarki. Metode ini biasa disebut dengan K-Means Cluster.

Kluster Non Hirarki

Kebalikan dari metode hirarki, metode nonhirarki tidak meliputi proses “treelike
construction“. Justru menempatkan objek-objek ke dalam cluster sekaligus
sehingga terbentuk sejumlah cluster tertentu. Langkah pertama adalah memilih
sebuah cluster sebagai inisial cluster pusat, dan semua objek dalam jarak tertentu
ditempatkan pada cluster yang terbentuk. Kemudian memilih cluster selanjutnya
dan penempatan dilanjutkan sampai semua objek ditempatkan. Objek-objek bisa
ditempatkan lagi jika jaraknya lebih dekat pada cluster lain daripada cluster
asalnya.
Pendekatan Metode non hirarki cluster

Metode nonhirarki cluster berkaitan dengan K-means custering, dan ada tiga
pendekatan yang digunakan untuk menempatkan masing-masing observasi pada
satu cluster.
Sequential Threshold, Metode Sequential Threshold

 Sequential Threshold, Metode Sequential Threshold memulai dengan


pemilihan satu cluster dan menempatkan semua objek yang berada pada jarak
tertentu ke dalamnya. Jika semua objek yang berada pada jarak tertentu telah
dimasukkan, kemudian cluster yang kedua dipilih dan menempatkan semua
objek yang berjarak tertentu ke dalamnya. Kemudian cluster ketiga dipilih dan
proses dilanjutkan seperti yang sebelumnya.
Parallel Threshold, Metode Parallel Threshold

 Parallel Threshold, Metode Parallel Threshold merupakan kebalikan dari


pendekatan yang pertama yaitu dengan memilih sejumlah cluster secara
bersamaan dan menempatkan objek-objek kedalam cluster yang memiliki
jarak antar muka terdekat. Pada saat proses berlangsung, jarak antar muka
dapat ditentukan untuk memasukkan beberapa objek ke dalam cluster-cluster.
Juga beberapa variasi pada metode ini, yaitu sisa objek-objek tidak
dikelompokkan jika berada di luar jarak tertentu dari sejumlah cluster.
Optimization

 Optimization, Metode ketiga adalah serupa dengan kedua metode sebelumnya


kecuali bahwa metode ini memungkinkan untuk menempatkan kembali objek-
objek ke dalam cluster yang lebih dekat.

Interprestasi Analisis Cluster

Setelah cluster terbentuk, entah dengan metode hirarki atau non-hirarki, langkah
selanjutnya adalah melakukan interprestasi terhadap cluster yang terbentuk, yang pada
intinya memberi nama spesifik untuk menggambarkan isi cluster. Misalnya,
kelompok konsumen yang memperhatikan lingkungan sekitar sebelum membeli
sebuah rumah bisa dinamai “cluster lingkungan”.

Tahap validasi Cluster

Melakukan validasi dan profiling cluster. Cluster yang terbentuk kemudian diuji apakah hasil
tersebut valid. Kemudian dilakukan proses profiling untuk menjelaskan karakteristik setiap
cluster berdasarkan profil tertentu (seperti usia konsumen pembeli rumah, tingkat
penghasilannya dan sebagainya). Analisis cluster agak bersifat subjektif dalam penentuan
penyelesaian cluster yang optimal, sehingga peneliti seharusnya memberikan perhatian yang
besar mengenai validasi dan jaminan tingkat signifikansi pada penyelesaian akhir dari cluster.
Meskipun tidak ada metode untuk menjamin validitas dan tingkat signifikansi , beberapa
pendekatan telah dikemukakan untuk memberikan dasar bagi perkiraan peneliti.

 Validasi Hasil Cluster


Validasi termasuk usaha yang dilakukan oleh peneliti untuk menjamin bahwa
hasil cluster adalah representatif terhadap populasi secara umum, dan dengan
demikian dapat digeneralisasi untuk objek yang lain dan stabil untuk waktu
tertentu. Pendekatan langsung dalam hal ini adalah dengan analisis sample secara
terpisah kemudian membandingkan antara hasil cluster dengan perkiraan masing-
masing cluster. Pendekatan ini sering tidak praktis, karena adanya keterbatasan
waktu dan biaya atau ketidaktersediaan objek untuk perkalian analisis cluster.
Dalam hal ini pendekatan tyang biasa digunakan adalah dengan membagi sample
menjadi dua kelompok. Masing-masing dianalisis cluster secara terpisah,
kemudian hasinya dibandingkan.

 Profiling Hasil Cluster

Tahap Profiling meliputi penggambaran karakteristik masing-masing cluster untuk


menjelaskan bagaimana mereka bisa berbeda secara relevan pada tiap dimensi.
Tipe ini meliputi penggunaan analisis diskriminan. Prosedur dimulai setelah
cluster ditentukan. Peneliti menggunakan data yang sebelumnya tidak masuk
dalam prosedur cluster untuk menggambarkan karakteristik masing-masing
cluster. Meskipun secara teori tidak masuk akal (rasional) dalam perbedaan silang
cluster, akan tetapi hal ini diperlukan untuk memprediksi validasi taksiran,
sehingga minimal penting secara praktek.

Asumsi Analisis Cluster

Untuk melakukan proses analisis cluster ini, ada asumsi yang harus terpenuhi, yaitu:
Sampel yang diambil benar-benar dapat mewakili populasi yang ada (representativeness of
the sample) dan Multikolinieritas. Sedangkan asumsi lainnya yang biasanya dilakukan pada
analisis multivariat tidak perlu dilakukan, seperti: Uji Normalitas, Uji Linearitas dan Uji
Heteroskedastisitas.
Analisis Korespondensi

Analisis korespondensi merupakan metode analisis untuk merepresentasikan data tabulasi secara

grafis, yang dalam bentuk umumnya dapat dikenal sebagai scatterplot. Scatterplot merupakan

representasi dari data sebagai sekumpulan titik berkaitan dengan dua sumbu koordinat

tegaklurus dimana didalamnya terletak sekumpulan titik sehingga dapat diinterpretasikan jarak

antar titik tersebut, selanjutnya dapat dipandang sebagai peta spasial dari data. Analisis

Korespondensi merupakan teknik eksplorasi data yang dilakukan pada data kategori dimana

tidak terdapat hipotesis yang spesifik. Secara spesifik, Analisis Korespondensi bekerja pada tabel

dua-arah atau multi-arah dimana setiap barisdan kolomnya menjadi titik pada peta grafik multi-

dimensi

Penentuan jarak profil dihitung baris atau kolom dalam kategori yang sama, menggunakan jarak

chi-square, yang didefinisikan:

Jarak antara dua individu baris ke-i dan ke-i' adalah :

Jarak antara dua variabel kolom ke-j dan ke-j' adalah :

Analisis Korespondensi menggunakan statistik chi-square – ukuran jarak Euclid tertimbang (a

weighted Euclidean distance) – untuk mengukur jarak antara titik pada grafik. Dengan kata lain,

jarak chi-square mengukur asosiasi antara banyak variabel. Oleh karena Analisis Korespondensi

merupakan statistik non-parametrik, maka tidak terdapat distribusi secara teoritik yang mana

jarak terobservasi dapat dibandingkan.


Tujuan dari Analisis Korespondensi adalah menjelaskan variansi atau inertia yang paling besar

dalam suatu model dalam dimensi paling kecil. Dimensi yang digunakan biasanya dua atau

tiga sesuai dengan tujuan penelitian, namun untuk menghitung dimensi yang melibatkan

eksplorasi matematika dapat dilakukan melalui pembahasan tersendiri.

Manfaat Analisis Korespondensi yaitu dapat menyederhanakan data yang kompleks yang

berasal dari tabel berdimensi banyak atau berukuran besar menjadi tampilan yang lebih

sederhana dimana mempertahankan informasi berharga dalam suatu kumpulan

data. Manfaat lain dari Analisis Korespondensi yaitu menyajikan data melalui tampilan yang

mewakili data baris dan data kolom, sehingga data lebih mudah dibandingkan.

Analisis Korespondensi bersifat fleksibel terhadap asumsi dan skala data. Pada data yang

menggunakan Skala Likert, analisis korespondensi merupakan teknik analisis yang berguna,

karena fokus utamanya pada bagaimana peubah atau variabel memiliki kesesuaian satu sama

lain dan bukan apakah terdapat perbedaan yang signifikan antara peubah-peubah

tersebut. Analisis Korespondensi dapat digunakan pada data kontinyu, dimana sebelumnya

dibuat menjadi kelompok atau dibuat dalam bentu kategori yang selanjutnya dianalisis

sebagai data diskrit.

Meskipun bersifat fleksibel terhadap asumsi, namun pelanggaran terhadap


asumsi menjadikan kesimpulan yang ditarik tentang asosiasi antara peubah
menjadi tidak akurat dan plot atau grafik yang dihasilkan menjadi pedoman yang
kurang bernilai dalam analisis data. Beberapa asumsi yang perlu dipenuhi antara
lain:
1. Homogenitas ragam

2. Data yang dianalisis berupa data diskrit

3. Data dibuat dari beberapa kategori (umumnya lebih dari tiga)

4. Semua nilai dalam tabel frekuensi harus positif (tidak negatif)


ASUMSI ANALISIS DISKRIMINAN

Analisis diskriminan mempunyai asumsi bahwa data berasal dari multivariate normal distribution
dan matrik kovarian kedua kelompok perusahaan adalah sama. Asumsi multivariate normal
distribution penting untuk menguji signifikansi dari variabel diskriminator dan fungsi diskriminan.
Jika data tidak normal secara multivariate, maka secara teori uji signifikansi menjadi tidak valid. Hasil
klasifikasi menurut teori juga dipengaruhi oleh multivariate normal distribution. Apabila diketahui
bahwa asumsi multivariate normal distribution tidak dipenuhi maka sebaiknya menggunakan analisis
logistic regression. Logistic regression tidak memerlukan asumsi distribusi normal untuk variabel
bebasnya.

Data tentatif ini akan kita gunakan untuk menjelaskan teknik analisis diskriminan. Contoh berikut
adalah dua rasio keuangan EBITASS (rasio earning before interest and tax terhadap total asset) dan
ROTC (return on total capital) 24 sampel perusahaan yang dibagi ke dalam dua kelompok yaitu 12
perusahaan sehat dan 12 perusahaan bangkrut.

Apabila data ini kita plot, maka dapat dilihat sampai seberapa jauh kedua rasio keuangan ini mampu
membedakan kedua kelompok perusahaan sehat dan perusahaan bangkrut.
Gambar di atas menunjukkan bahwa kedua kelompok perusahaan sehat dan bangkrut dapat
dipisahkan secara nyata dilihat dari rasio EBITASS DAN ROTC. Hal ini berarti bahwa setiap rasio
keuangan dapat membedakan dua kelompok perusahaan sehat dan bangkrut. Melihat perbedaan
dua kelompok perusahaan dengan hanya melihat satu variabel disebut dengan analisis univariate.
Uji statistik untuk univariate dapat dilakukan dengan uji beda t-test. Sedangkan melihat perbedaan
dua kelompok perusahaan berdasarkan pada kombinasi kedua rasio keuangan secara bersama-sama
disebut dengan analisis multivariate. Variabel yang memberikan pembeda (diskriminan) terbaik
disebut dengan variabel diskriminan (discriminator variable). Mengidentifikasi sekelompok variabel
yang dapat menjadi pembeda terbaik kedua kelompok perusahaan adalah tujuan utama dari analisis
diskriminan.

Berikut ini langkah analisis diskriminan :

IDENTIFIKASI AXIS BARU

Apabila pada gambar di atas kita membuat axis baru Z yang merupakan garis diagonal dengan sudut
45o dari garis EBITASS, maka kita memproyeksikan katakanlah titik P pada garis diagonal Z dengan
persamaan :

Zp = w1 EBITASS + w2 ROTC

Besarnya w1 = cos 45 = 0,707 dan w2 = sin 45 = 0,707 dengan demikian persamaan Zp menjadi :

Zp = 0,707 EBITASS + 0,707 ROTC

Persamaan ini merupakan kombinasi linear dari rasio keuangan EBITASS dan ROTC untuk perusahaan
P. Jadi proyeksi suatu titik pada garis Z memberikan variabel baru Z yang merupakan kombinasi
linear dari variabel rasio keuangan. Jadi tujuan kedua analisis diskriminan adalah mencari axis baru
yaitu Z dimana variabel baru Z memberikan maksimum kemampuan untuk membedakan antara dua
kelompok perusahaan. Axis baru ini disebut linear discriminant function atau sering disingkat
discriminant function. Proyeksi suatu titik pada discriminant function (atau nilai dari variabel baru Z)
disebut discriminant score. Tujuan ketiga yang ingin dicapai oleh analisis diskriminan adalah
pengelompokkan atau klasifikasi observasi ke dalam satu dari dua kelompok perusahaan di masa
datang.

MEMILIH VARIABEL DISKRIMINATOR

Perbedaan rata-rata masing-masing rasio keuangan untuk kedua kelompok perusahaan sehat dan
bangkrut dapat diuji dengan uji beda t-test. Hasil uji t test dapat di bawah ini.

Nilai t hitung untuk EBITASS adalah 9,854 dan ROTC sebesar 11,528. Oleh karena nilai t hitung lebih
besar dari nilai t tabel pada tingkat signifikan 5%, maka dapat disimpulkan bahwa kedua rasio
keuangan ini mampu membedakan kedua kelommpok perusahaan dan akan digunakan untuk
membentuk fungsi diskriminan. U t test hanya berdasarkan pada pendekatan univariate, yaitu uji t
test untuk masing-masing rasio keuangan. Pendekatan yang lebih disukai adalah dengan uji
multivariate, di mana kedua rasio keuangan diuji secara simultan atau bersama-sama.

FUNGSI DISKRIMINAN DAN KLASIFIKASI

Misalkan kombinasi linear atau fungsi diskrimina yang membentuk variabel baru (score discriminant)
sebagai berikut :

Z = w1 EBITASS + w2 ROTC

Di mana Z adalah fungsi diskriminan, maka tujuan analisis diksriminan adalah menentukan nilai w1
dan w2 dari fungsi diskriminan di atas agar memaksimumkan nilai lambda.

lambda = between group sum of square / within group sum of square

Fungsi diskriminan didapat dengan memaksimumkan nilai lambda dan disebut Fisher's linear
discriminant function.

Langkah analisis dengan SPSS.

a. buka file
b. dari menu utama SPSS, pilih menu Statistics/Analyze kemudian submenu Classify, lalu pilih
Discriminant.
c. tampak di layar windows Discriminant Analysis.
d. pada Box Grouping Variable isikan CODE dan definisikan perusahaan sehat 1 dan bangkrut 2.
e. pada Box Independent isikan variabel EBITASS dan ROTC.
f. pilih Statistics dan aktifkan pilihan test statistics descriptive, Matrice dan function coefficient.

Penilaian signifikan variabel diskriminan dapat dilihat dari nilai rata-rata dari rasio keuangan apakah
berbeda secara signifikan untuk perusahaan sehat dan bangkrut. Untuk menguji apakah ada
perbedaan secara signifikan antara kedua kelompok perusahaan dapat dilakukan dengan uji t test.
Alternatif lain adalah dengan menggunakan Wilk's L test statistics. Semakin kecil nilai Wilk's L maka
semakin besar probabilitas hipotesis nol (tidak ada perbedaan rata-rata populasi) ditolak. Untuk
menguji signifikansi nilai Wilk's L maka dapat dikonversikan kedalam F ratio.
Dari tampilan group statistik jelas bahwa nilai rata-rata kedua rasio keuangan antara perusahaan
sehat dan bangkrut berbeda yaitu 0,18533 untuk perusahaan sehat dan 0,035167 untuk perusahaan
bangkrut dilihat dari rasio EBITASS. Sedangkan rasio ROTC dengan rata-rata 0,18350 untuk
perusahaan sehat dan 0,00333 untuk perusahaan bangkrut.

Dilihat dari test statistik Wilk's L jelas ada perbedaan secara signifikan yaitu untuk EBITASS nilai
Wilk's L sebesar 0,185 dan signifikan pada 0,000. Sedangkan nilai Wilk's L ROTC sebesar 0,142 juga
signifikan pada 0,000. Hasil ini menunjukkan bahwa kedua variabel rasio keuangan dapat digunakan
untuk membentuk variabel diskriminan.

Persamaan estimati fungsi diskriminan unstandardized dapat dilihat dari output Canonical
Discriminant Function Coefficient dengan persamaan sebagai berikut :

Z = -3,195 + 13,430 EBITASS + 18,353 ROTC

Untuk menguji signifikansi statistik dari fungsi diskriminan digunakan multivariate test of
signifikance. Oleh karena dalam kasus ini lebih dari satu variabel deskriminator yaitu EBITASS dan
ROTC, maka untuk menguji perbedaan kedua kelompok perusahaan untuk semua variabel secara
bersama-sama digunakan multivariate test. Uji Wilk's L dapat diaproksimasi dengan statistik Chi-
square.

Besarnya nilai Wilk's L sebesar 0,115 atau sama dengan Chi-square 45,498 dan ternyata nilai ini
signifikan pada 0,000 maka dapat disimpulkan bahwa fungsi diskriminan signifikan secara statistik
yang berarti nilai rata-rata score diskriminan untuk kedua kelompok perusahaan berbeda secara
nyata.

Walaupun secara statistik perbedaan kedua kelompok perusahaan itu signifikan, tetapi untuk tujuan
praktis perbedaan kedua kelompok perusahaan tadi tidak begitu besar. Hal ini dapat terjadi pada
kasus dengan jumlah sampel yang besar. Untuk menguji seberapa besar dan berarti perbedaan
antara kedua kelompok perusahaan dapat dilihat dan nilai Square Canonical Correlation (CR2).
Square Canonical Correlation identik dengan R2 pada regresi yaituu mengukur variasi antara kedua
kelompok perusahaan yang dapat dijelaskan oleh variabel diskriminannya. Jadi CR2 mengukur
sebagai kuat fungsi diskriminan.

Tampilan output Eigenvalues menunjukkan bahwa besarnya Canonical Correlation adalah sebesar
0,941 atau besarnya Square Canonical Correlation (CR2) = (0,941)2 atau sama dengan 0,885. Jadi
dapat disimpulkan bahwa 88,5% variasi antara kelompok perusahaan sehat dan bangkrut yang dapat
dijelaskan oleh variabel diskriminan rasio EBITASS dan ROTC.

Menilai pentingnya variabel diskriminan dan arti dari fungsi diskriminan dapat dilakukan dengan
melihat fungsi diskriminan standardized.

Tampilan standardized canonical discriminat function menunjukkan bahwa besarnya koefisien


EBITASS 0,501 dan koefisien ROTC sebesar 0,703. Koefisien yang sudah distandarisasi digunakan
untuk menilai pentingnya variabel diskriminator secara relatif dalam membentuk fungsi diskriminan.
Makin tinggi koefisien yang telah distandarisasi, maka makin penting variabel tersebut terhadap
variabel lainnya dan sebaliknya. Variabel rasio EBITASS relatif lebih penting dibandingkan variabel
rasio ROTC dalam membentuik fungsi diskriminan.

Oleh karena score diskriminan adalah indeks gabungan atau kombinasi linear dari variabel awal,
maka perlu untuk mengetahui apakah arti dari score diskriminan. Nilai loading dari structure
coefficient dapat digunakan untuk menginterpretasikan kontribusi setiap variabel untuk membentuk
fungsi diskriminan. Nilai loading variabel diskriminator merupakan korelasi antara score diskriminan
dan variabel diskriminator dan nilai loading akan berkisar +1 dan -1. Makin mendekati 1 (satu) nilai
absolut dari loading, maka tinggi komunalitas antara variabel diskriminan dan fungsi diskriminan dan
sebaliknya. Tampilan struktur matrik menunjukkan bahwa besarnya loading untuk EBITASS 0,756
dan besarnya loading untuk ROTC sebesar 0,884. Oleh karena loading kedua variabel rasio keuangan
ini tinggi, maka score diskriminan dapat diinterpretasikan sebagai ukuran kesehatan keuangan
perusahaan.

Tujuan ketiga dari analisis diskriminan adalah mengklasifikasikan observasi di masa datang ke dalam
satu dari dua kelompok perusahaan. Output SPSS memberikan nilai tingkat klasifikasi sebesar 100%.

Klasifikasi dari observasi secara esensial akan mengurangi pembagian ruang diskriminan ke dalam
dua region. Nilai score diskriminan yang membagi ruang kedalam dua region disebut nilai cutoff.
Makin tinggi nilai EBITASS dan ROTC makin tinggi nilai score diskriminan dan sebaliknya. Oleh karena
perusahaan yang mempunyai kesehatan keuangan akan memiliki nilai yang lebih tinggi untuk kedua
rasio keuangan, perusahaan yang sehat akan memiliki score diskriminan lebih tinggi daripada
perusahaan bangkrut. Jadi perusahaan akan dikelompokkan sebagai perusahaan dapat sehat jika
score diskriminannya lebih tinggi daripada nilai cutoff dan perusahaan akan dikelompokkan sebagai
perusahaan bangkrut jika score diskriminannya lebih kecil dari nilai cutoff.

Secara umum nilai cutoff yang dipilih nilai yang meminimumkan jumlah incorrect classification atau
kesalahan misklasifikasi atau dapat dihitung dengan rumus:

Cutoff = (Z1 + Z2) / 2

Di mana Zj adalah rata-rata score diskriminan kelompok j. Rumus ini berasumsi jumlah sampel kedua
kelompk sama. Dalam hal jumlah sampel kedua kelompok tidak sama maka rumus cutoff menjadi :
Cutoff = (n1Z1 + n2Z2) / (n1 + n2)

Di mana ng adalah jumlah observasi pada kelompok g. Tampilan output SPSS memberikan rata-rata
score diskriminan untuk kelompok 1 sebesar 2,662 dan rata-rata score diskriminan untuk kelompok
2 sebesar -2,662 dan memberikan nilai cutoff nol.

Ringkasan nilai klasifikasi dapat dilihat pada classification matrix atau confussion matrix. Hasil matrik
klasifikasi menunjukkan bahwa seluruh observasi telah diklasifikasikan secara benar dengan
ketepatan 100%.

Analisis diskriminan adalah teknik statistika yang dipergunakan untuk mengklasifikasikan


suatu individu atau observasi ke dalam suatu kelas atau kelompok berdasarkan sekumpulan
variabel-variabel (Johnson & Wichern 2007). Model umum analisis diskriminan merupakan
suatu kombinasi linear yang bentuknya sebagai berikut:

Membentuk fungsi diskriminan yang optimal diperlukan beberapa asumsi terhadap data yang
digunakan. Asumsi ini antara lain adalah data pada variabel bebas seharusnya berdistribusi
normal multivariat dan adanya kesamaan matriks varians-kovarians antar kelompok.

Dalam penyusunan fungsi diskriminan ada dua metode yang dapat digunakan, yaitu estimasi
simultan dan estimasi stepwise. Cara mengetahui variabel bebas yang dapat mendiskriminasi
suatu kelompok adalah menggunakan statistik uji Wilks Lamda, yaitu:
Fungsi diskriminan adalah kombinasi linear dari variabel-variabel yang dimiliki oleh
kelompok-kelompok yang akan diklasifikasikan. Untuk dua grup dapat dilakukan
menggunakan fungsi diskriminan linier Fisher, yaitu:

Nilai fungsi diskriminan Z merupakan dasar untuk menentukan suatu objek masuk kelompok
yang mana dengan membandingkannya dengan rata-rata (centroid) dari nilai Z masing-
masing kelompok. Jika ada dua kelompok masing-masing A dan B, maka

Kriteria perbandingan teknik klasifikasi didasarkan pada kesalahan klasifikasinya yang


dikenal dengan Apparent Error Rate (APER) merupakan nilai dari besar kecilnya jumlah
observasi yang salah dalam pengklasifikasian berdasarkan suatu fungsi klasifikasi (Johnson
& Wichern 2007). Adapun APER dihitung dengan terlebih dahulu membuat tabel klasifikasi
sebagai berikut:

Klasifikasi actual dan predicted group

Sumber: Johnson and Wichern (2007)

Sedangkan ketepatan prediksi pengelompokan secara tepat dapat menggunakan rumus Hit
Ratio.
Penjelasan Analisis Faktor – PCA dan CFA
Analisis Faktor

Definisi Analisis Factor

Analisis faktor adalah sebuah teknik yang digunakan untuk mencari faktor-faktor yang
mampu menjelaskan hubungan atau korelasi antara berbagai indikator independen yang
diobservasi.

Analisis faktor merupakan perluasan dari analisis komponen utama. Digunakan juga untuk
mengidentifikasi sejumlah faktor yang relatif kecil yang dapat digunakan untuk menjelaskan
sejumlah besar variabel yang saling berhubungan.

Sehingga variabel-variabel dalam satu faktor mempunyai korelasi yang tinggi, sedangkan
korelasi dengan variabel-variabel pada faktor lain relatif rendah. Tiap-tiap kelompok dari
variabel mewakili suatu konstruksi dasar yang disebut faktor. Untuk meningkatkan daya
interpretasi faktor, harus dilakukan transformasi pada matriks loading. Transformasi
dilakukan dengan merotasi matriks tersebut dengan metode varimax, quartimax, equamax,
quartimin, biquartimin dan covarimin serta oblimin.

Analisis Faktor

Hasil rotasi ini akan mengakibatkan setiap variabel asal mempunyai korelasi tinggi dengan
faktor tertentu saja dan dengan faktor yang lain korelasi relatif rendah sehingga setiap faktor
akan lebih mudah untuk diinterpretasikan. Untuk mengetahui rotasi mana yang sesuai
digunakan Μ2min yang dihasilkan dari analisis procrustes.

Analisis procrustes adalah suatu teknik analisis yang digunakan untuk membandingkan dua
konfigurasi. Dalam hal ini konfigurasi data hasil analisis factor yang sudah dirotasi
dibandingkan dengan data asal. Sebelum kedua data dibandingkan terlebih dahulu kedua data
diproses berdasarkan penetapan dan penyesuaian posisi. Penetapan dan penyesuaian dengan
posisi dilakukan dengan transformasi yaitu transformasi translasi, rotasi maupun dilasi yang
dibuat sedemikian sehingga diperoleh jarak yang sedekat mungkin. Setelah proses tersebut
dilakukan dapat diketahui sejauh mana konfigurasi data analisis faktor dapat menggambarkan
data asal.

Tujuan Analisis Faktor


Tujuan utama analisis faktor adalah untuk menjelaskan struktur hubungan di antara banyak
variabel dalam bentuk faktor atau vaiabel laten atau variabel bentukan. Faktor yang terbentuk
merupakan besaran acak (random quantities) yang sebelumnya tidak dapat diamati atau
diukur atau ditentukan secara langsung. Selain tujuan utama tersebut, terdapat tujuan lainnya
adalah:

1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak menjadi sejumlah variabel
baru yang jumlahnya lebih sedikit dari variabel asal, dan variabel baru tersebut dinamakan
faktor atau variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antarvariabel penyusun faktor atau dimensi
dengan faktor yang terbentuk, dengan menggunakan pengujian koefisien korelasi antar
faktor dengan komponen pembentuknya. Analisis faktor ini disebut analisis faktor
konfirmatori.
3. Untuk menguji valisitas dan reliabilitas instrumen dengan analisis faktor konfirmatori.
4. Validasi data untuk mengetahui apakah hasil analisis faktor tersebut dapat digeneralisasi ke
dalam populasinya, sehingga setelah terbentuk faktor, maka peneliti sudah mempunyai
suatu hipotesis baru berdasarkan hasil analisis tersebut.

Perbedaan Analisis Komponen Utama (PCA) dan Analisis Faktor


Konfirmatori (CFA)

Analisis faktor pada dasarnya dapat dibedakan secara nyata menjadi dua macam yaitu:

1. Analisis Faktor Eksploratori Atau Analisis Komponen Utama (PCA)

Analisis faktor eksploratori atau analisis komponen utama (PCA = principle component
analysis) yaitu suatu teknik analisis faktor di mana beberapa faktor yang akan terbentuk
berupa variabel laten yang belum dapat ditentukan sebelum analisis dilakukan.

Pada prinsipnya analisis faktor eksploratori di mana terbentuknya faktor-faktor atau variabel
laten baru adalah bersifat acak, yang selanjutnya dapat diinterprestasi sesuai dengan faktor
atau komponen atau konstruk yang terbentuk. Analisis faktor eksploratori persis sama dengan
anlisis komponen utama (PCA).

Dalam analisis faktor eksploratori di mana peneliti tidak atau belum mempunyai pengetahuan
atau teori atau suatu hipotesis yang menyusun struktur faktor-faktornya yang akan dibentuk
atau yang terbentuk, sehingga dengan demikian pada analisis faktor eksploratori merupakan
teknik untuk membantu membangun teori baru.

Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari variabel asal
atau variabel awal menjadi variabel baru atau faktor yang jumlahnya lebih kecil dari pada
variabel awal. Proses analisis tersebut mencoba untuk menemukan hubungan antarvariabel
baru atau faktor yang terbentuk yang saling independen sesamanya, sehingga bisa dibuat satu
atau beberapa kumpulan variabel laten atau faktor yang lebih sedikit dari jumlah variabel
awal yang bebas atau tidak berkorelasi sesamanya. Jadi antar faktor yang terbentuk tidak
berkorelasi sesamanya.

2. Analisis Faktor Konfirmatori (CFA)


Analisis faktor konfirmatori yaitu suatu teknik analisis faktor di mana secara apriori
berdasarkan teori dan konsep yang sudah diketahui dipahami atau ditentukan sebelumnya,
maka dibuat sejumlah faktor yang akan dibentuk, serta variabel apa saja yang termasuk ke
dalam masing-masing faktor yang dibentuk dan sudah pasti tujuannya. Pembentukan faktor
konfirmatori (CFA) secara sengaja berdasarkan teori dan konsep, dalam upaya untuk
mendapatkan variabel baru atau faktor yang mewakili beberapa item atau sub-variabel, yang
merupakan variabel teramati atau observerb variable.

Pada dasarnya tujuan analisis faktor konfirmatori adalah: pertama untuk mengidentifikasi
adanya hubungan antar variabel dengan melakukan uji korelasi. Tujuan kedua untuk menguji
validitas dan reliabilitas instrumen. Dalam pengujian terhadap validitas dan reliabilitas
instrumen atau kuesioner untuk mendapatkan data penelitian yang valid dan reliabel dengan
analisis faktor konfirmatori.

Proses Analisis Faktor

Secara garis besar, tahapannya:

1. Merumuskan masalah.
2. Menyusun matriks korelasi.
3. Ekstraksi faktor.
4. Merotasi factor.
5. Interpretasikan Faktor.
6. Pembuatan factor scores.
7. Pilih variabel surrogate atau tentukan summated scale.

Berikut penjelasan langkah-langkah di atas:

Merumuskan masalah

Merumuskan masalah meliputi beberapa hal:

1. Tujuan analisis faktor harus diidentifikasi.


2. Variabel yang akan dipergunakan di dalam analisis faktor harus dispesifikasi berdasarkan
penelitian sebelumnya, teori dan pertimbangan dari peneliti.
3. Pengukuran variabel berdasarkan skala interval atau rasio.
4. Banyaknya elemen sampel (n) harus cukup atau memadai.

Menyusun matriks korelasi

Di dalam melakukan analisis faktor, keputusan pertama yang harus diambil oleh peneliti
adalah menganalisis apakah data yang ada cukup memenuhi syarat di dalam analisis faktor.
Langkah pertama ini dilakukan dengan mencari korelasi matriks antara indicator-indikator
yang diobservasi. Ada beberapa ukuran yang bisa digunakan untuk syarat kecukupan data
sebagai rule of thumb yaitu:

1. Korelasi matriks antar indikator: Metode yang pertama adalah memeriksa korelasi matriks.
Tingginya korelasi antara indikator mengindikasikan bahwa indikator-indikator tersebut
dapat dikelompokkan ke dalam sebuah indikator yang bersifat homogen sehingga setiap
indikator mampu membentuk faktor umum atau faktor konstruk. Sebaliknya korelasi yang
rendah antara indikator megindikasikan bahwa indikator-indikator tersebut tidak homogen
sehingga tidak mampu membentuk faktor konstruk.
2. Korelasi parsial: Metode kedua adalah memeriksa korelasi parsial yaitu mencari korelasi satu
indikator dengan indikator lain dengan mengontrol indikator lain. Korelasi parsial ini disebut
dengan negative anti-image correlations.
3. Kaiser-Meyer Olkin (KMO) : Metode ini paling banyak digunakan untuk melihat syarat
kecukupan data untuk analisis faktor. Metode KMO ini mengukur kecukupan sampling
secara menyeluruh dan mengukur kecukupan sampling untuk setiap indikator.

Ekstraksi faktor

Ekstraksi Faktor adalah suatu metode yang digunakan untuk mereduksi data dari beberapa
indikator untuk menghasilkan faktor yang lebih sedikit yang mampu menjelaskan korelasi
antara indikator yang diobservasi. Ada beberapa metode yang bisa digunakan untuk
melakukan ekstraksi faktor yaitu:

1. Principal Components Analysis: Analisis komponen utama (principal components analysis)


merupakan metode yang paling sederhana di dalam melakukan ekstraksi faktor. Metode ini
membentuk kombinasi linear dari indikator yang diobservasi.
2. Principal Axis Factoring: Metode ini hampir sama dengan metode principal components
analysis sebelumnya kecuali matriks korelasi diagonal diganti dengan sebuah estimasi
indikator kebersamaan, namun tidak sama dengan principal components analysis di mana
indikator kebersamaan yang awal selalu diberi angka 1.
3. Unweighted Least Square: Metode ini adalah prosedur untuk meminimumkan jumlah
perbedaan yang dikuadratkan antara matriks korelasi yang diobservasi dan yang diproduksi
dengan mengabaikan matriks diagonal dari sejumlah faktor tertentu.
4. Generalized Least Square: Metode ini adalah metode meminimumkan error sebagaimana
metode unweighted least squares. Namun, korelasi diberi timbangan sebesar keunikan dari
indikator (error). Korelasi dari indikator yang mempunyai error yang besar diberi timbangan
yang lebih kecil dari indikator yang mempunyai error yang kecil.
5. Maximum Likelihood: Adalah suatu prosedur ekstraksi faktor yang menghasilkan estimasi
parameter yang paling mungkin untuk mendapatkan matriks korelasi observasi jika sampel
mempunyai distribusi normal multivariat.

Merotasi Faktor

Setelah kita melakukan ekstraksi faktor, langkah selanjutnya adalah rotasi faktor (rotation).
Rotasi faktor ini diperlukan jika metode ekstraksi faktor belum menghasilkan komponen
faktor utama yang jelas. Tujuan dari rotasi faktor ini agar dapat memperoleh struktur faktor
yang lebih sederhana agar mudah diinterpretasikan. Ada beberapa metode rotasi faktor yang
bisa digunakan yaitu:

1. Varimax Method: Adalah metode rotasi orthogonal untuk meminimalisasi jumlah indikator
yang mempunyai factor loading tinggi pada tiap faktor.
2. Quartimax Method: Merupakan metode rotasi untuk meminimalisasi jumlah faktor yang
digunakan untuk menjelaskan indikator.
3. Equamax Method: Merupakan metode gabungan antara varimax method yang
meminimalkan indikator dan quartimax method yang meminimalkan faktor.

Interpretasikan Faktor
Setelah diperoleh sejumlah factor yang valid, selanjutnya kita perlu menginterprestasikan
nama-nama factor, mengingat factor merupakan sebuah konstruk dan sebuah konstruk
menjadi berarti kalau dapat diartikan. Interprestasi factor dapat dilakukan dengan mengetahui
variable-variabel yang membentuknya. Interprestasi dilakukan dengan judgment. Karena
sifatnya subjektif, hasil bisa berbeda jika dilakukan oleh orang lain.

Pembuatan factor scores

Faktor score yang dibuat, berguna jika akan dilakukan analisis lanjutan, seperti analisis
regresi, analisis diskriminan atau analisis lainnya.

Pilih variabel surrogate atau tentukan summated scale

1. Variabel surrogate adalah satu variable yang paling dapat mewakili satu factor. Misak factor
1 terdiri dari variable X1, X2 dan X3. Maka yang paling mewakili factor 1 adalah variable yang
memiliki factor loading terbesar. Apabila factor loading tertinggi dalam satu factor ada yang
hampir sama, missal X1 = 0,905 dan X2 = 0,904 maka sebaiknya pemilihan surrogate variable
ditentukan berdasarkan teori, yaitu variable mana secara teori yang paling dapat mewakili
factor. Atau cara lain adalah dengan menggunakan Summated Scale.
2. Summated Scale adalah gabungan dari beberapa variable dalam satu factor, bisa berupa
nilai rata-rata dari semua factor tersebut atau nilai penjumlahan dari semua variable dalam
satu factor.

KONSEP ANALISIS FAKTOR

Analisis faktor adalah salah satu teknik statistika yang dapat digunakan untuk memberiikan deskripsi
yang relatif sederhana melalui reduksi jumlah peubah yang disebut faktor. Analisis faktor adalah
prosedur untuk mengidentifikasi item atau variabel berdasarkan kemiripannya. Kemiripan tersebut
ditunjukkan dengan nilai korelasi yang tinggi. Item-item yang memiliki korelasi yang tinggi akan
membentuk satu kerumunan faktor.Prinsip dasar dalam analisis faktor adalah menyederhanakan
deskripsi tentang data dengan mengurangi jumlah variabel/ dimensi.

Analisis faktor memungkinkan peneliti untuk:

1. Menguji ketepatan model (goodness of fit test) faktor yang terbentuk dari item-item alat
ukur.
2. Menguji kesetaraan unit pengukuran antar item,
3. Menguji reliabilitas item-item pada tiap faktor yang diukur,
4. Menguji adanya invarian item pada populasi.

JENIS ANALISIS FAKTOR

a) Analisis Faktor Eksploratori (Exploratory Factor Analysis)


Seorang peneliti membuat seperangkat item yang mengukur kualitas pelayanan bank. Item tersebut
merupakan operasionalisasi dari teori dan indikator mengenai kualitas layanan. Peneliti hendak
mengidentifikasi berapa faktor yang ada di dalam seperangkat item tersebut. Dari analisis faktor
kemudian didapatkan ada 4 faktor yang menggambarkan kualitas layanan bank, antara lain faktor
fitur layanan, fasilitas gedung, keramahan karyawan, serta jaminan keamanan.

b) Analisis Faktor Konfirmatori (Confirmatory Factor Analysis).

Seorang peneliti merancang sebuah alat ukur mengenai dukungan sosial. Alat ukur tersebut berisi
seperangkat aitem yang diturunkan dari lima dimensi dukungan sosial. Peneliti berusaha
memastikan apakah alat ukur yang dibuatnya benar-benar menjelaskan kelima dimensi tersebut. Ia
kemudian melakukan analisis faktor konfirmatori. Hasil dari analisis faktor menunjukkan bahwa
pembagian kelima faktor akhirnya dibuktikan.

FUNGSI ANALISIS FAKTOR


Analisis faktor memiliki fungsi penting dalam pengembangan alat ukur. Beberapa fungsi tersebut
antara lain sebagai berikut.

a) Pengujian Dimensionalitas Pengukuran

Dimensionalitas pengukuran adalah banyaknya atribut yang diukur oleh sebuah alat ukur. Alat ukur
yang unidimensi mengukur satu atribut psikologis saja sedangkan alat ukur yang multidimensi
mengukur lebih dari satu atribut ukur. Pengukuran dalam bidang psikologi didominasi oleh
pengukuran unidimensi karena alat ukur yang dikembangkan peneliti psikologi biasanya mengukur
satu target ukur saja. Misalnya Skala Kecemasan, skala ini diharapkan mengukur atribut kecemasan
saja dan tidak mengukur atribut yang lain. Untuk mengetahui apakah alat ukur yang dikembangkan
oleh peneliti mengukur satu atribut atau banyak atribut diperlukan analisis faktor.

b) Pengujian Komponen atau Aspek dalam Alat Ukur

Penyusunan alat ukur psikologi biasanya diawali dari penurunan konsep menjadi komponen atau
aspek konsep sebelum diturunkan menjadi aitem berupa pernyataan skala. Untuk mengidentifikasi
apakah item-item yang diturunkan dari komponen alat ukur mewakili komponen tersebut maka
diperlukan analisis faktor. Analisis faktor juga dapat menunjukkan apakah antar komponen memiliki
keterkaitan ataukah tidak (independen).

LANGKAH-LANGKAH MELAKUKAN ANALISIS FAKTOR


1. Melakukan uji korelasi antar variabel asal dengan tujuan agar penyusutan variabel analisis faktor
menjadi lebih sederhana dan bermanfaat, tanpa kehilangan banyak informasi sebelumnya.

2. Uji kelayakan data (menggunakan basis faktor) apakah cocok dilakukan analisis faktor.

3. Mencari akar ciri dan matriks Σ atau R.


4. Mengurutkan akar ciiri yang terbentuk dari terbesar sampai terkecil.

5. Mencari proporsi keragaman atau berguna untuk mengetahui berapa faktor yang akan terbentuk.

6. Mengalokasikan setiap variabel asal kedalam faktor sesuai dengan nilai loading.

7. Apabila terdapat nilai loading yang identik atau hampir sama maka lakukan rotasi baik dengan
cara orthogonal ataupun non orthogonal.

8. Setelah yakin dengan faktor yang terbentuk , maka berikan penamaan pada faktor tersebut
dengan cara melihat variabel-variabel apa saja yang menyusun faktor tersebut.

MENENTUKAN METODE ANALISIS FAKTOR


Terdapat dua cara yang dapat dipergunakan dalam analisis faktor khususnya koefisien skor faktor,
yaitu Principal component dan Common factor analysis.

1. Principal component

Jumlah varian dalam data dipertimbangkan. Diagonal matrik korelasi terdiri dari angka satu dan full
variance dibawa dalam matriks faktor. Principal component direkomendasikan jika hal yang pokok
adalah menentukan bahwa banyaknya faktor harus minimum dengan memperhitungkan varians
maksimum dalam data untuk dipergunakan di dalam analysis multivariate lebih lanjut.

2. Common factor analysis

Faktor diestimasi hanya didasarkan pada common variance, communalities dimasukkan dalam
matrik korelasi. Metode ini dianggap tepat jika tujuan utamanya mengenali/mengidentifikasi
dimensi yang mendasari dan common variance yang menarik perhatian.

PENENTUAN BANYAKNYA FAKTOR

Maksud melakukan analysis faktor adalah mencari variable baru yang disebut faktor yang tidak
saling berkorelasi, bebas satu sama lain, lebih sedikit dari variable asli, tapi dapat menyerap sebagian
besar informasi yang terkandung dalam variable asli atau yang dapat memberikan sumbangan
terhadap varian seluruh variable. Lalu berapa faktor yang perlu disajikan? Ada beberapa cara;

1. Penentuan Apriori

Kadang karena peneliti sebelumnya sudah mengetahui berapa faktor yang digunakan maka kita akan
menentukan dulu berapa faktor yang akan digunakan.

2. Penentuan Berdasar Eigenvalue


Faktor dengan eigenvalue lebih besar dari satu yang dipertahankan jika lebih kecil dari satu
faktornya tidak diikutsertakan dalam model. Suatu eigenvalue menunjukkan besar sumbangan dari
faktor terhadap varian seluruh variable asli. Hanya faktor dengan varian lebih dari 1 yang
dimasukkan dalam model. Faktor dengan varian kurang dari 1 tidak baik karena variable asli telah
dibakukan yang berarti rata-ratanya 0 dan variansnya 1. Bila banyak variable asli asli kurang dari 20
pendekatan ini menghasilkan sejumlah faktor yang konservatif.

3. Penentuan Berdasar Screeplot

Dapat dilihat dari grafik screeplot dimana scree mulai terjadi menunjukkan banyak faktor yang
benar, tepatnya ketika scree mulai mendatar. Kenyataan menunjukkan bahwa penentuan banyaknya
faktor dengan screeplot akan mencapai satu atau lebih banyak dari penentuan dengan eigenvalue.

4. Penentuan Didasarkan pada Presentase Varian

Banyak faktor diekstraksi ditentukan sedemikian rupa sehingga kumulatif presentase varian yang
diekstraksi oleh faktor mancapai suatu level tertentu yang memuaskan. Ekstraksi faktor dihentikan
jika kumulatif presentase varian sudah mencapai paling sedikit 60% atau 75% dari seluruh varian
variable asli.

ANALISIS FAKTOR

Analisis faktor (factor analysis) adalah salah satu keluarga analisis multivariate yang
bertujuan untuk meringkas atau mereduksi variable amatan secara keseluruhan menjadi
beberapa variable atau dimensi baru, akan tetapi variable atau dimensi baru yang terbentuk
tetap mampu merepresentasikan variable utama. Dalam analisis factor, dikenal dua
pendekatan utama, yaitu exploratory factor analysis dan confirmatory factor analysis. Kita
menggunakan exploratory factor analysis bila banyaknya factor yang terbentuk tidak
ditentukan terlebih dahulu. Sebaliknya confirmatory factor analysis digunakan apabila factor
yang terbentuk telah ditetapkan terlebih dahulu.

Asumsi mendasar yang harus digarisbawahi dalam analisis factor adalah bahwa variable-
variabel yang dianalisis memiliki keterkaitan atau saling berhubungan karena analisis factor
berusaha untuk mencari common dimension (kesamaan dimensi) yang mendasari variable-
variabel itu.

Tujuan utama analisis faktor adalah untuk menjelaskan struktur hubungan di antara banyak
variabel dalam bentuk faktor atau vaiabel laten atau variabel bentukan. Faktor yang terbentuk
merupakan besaran acak (random quantities) yang sebelumnya tidak dapat diamati atau
diukur atau ditentukan secara langsung. Selain tujuan utama analisis faktor, terdapat tujuan
lainnya adalah:

1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak menjadi sejumlah variabel
baru yang jumlahnya lebih sedikit dari variabel asal, dan variabel baru tersebut dinamakan
faktor atau variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antarvariabel penyusun faktor atau dimensi
dengan faktor yang terbentuk, dengan menggunakan pengujian koefisien korelasi
antarfaktor dengan komponen pembentuknya. Analisis faktor ini disebut analisis faktor
kofirmatori.
3. Untuk menguji valisitas dan reliabilitas instrumen dengan analisis faktor konfirmatori.
4. Validasi data untuk mengetahui apakah hasil analisis faktor tersebut dapat digeneralisasi ke
dalam populasinya, sehingga setelah terbentuk faktor, maka peneliti sudah mempunyai
suatu hipotesis baru berdasarkan hasil analisis faktor.

1. Analisis Faktor Eksploratori (EFA)

Analisis faktor eksploratori atau analisis komponen utama (PCA = principle component
analysis) yaitu suatu teknik analisis faktor di mana beberapa faktor yang akan terbentuk
berupa variabel laten yang belum dapat ditentukan sebelum analisis dilakukan.

Pada prinsipnya analisis faktor eksploratori di mana terbentuknya faktor-faktor atau variabel
laten baru adalah bersifat acak, yang selanjutnya dapat diinterprestasi sesuai dengan faktor
atau komponen atau konstruk yang terbentuk. Analisis faktor eksploratori persis sama dengan
anlisis komponen utama (PCA).

Dalam analisis faktor eksploratori di mana peneliti tidak atau belum mempunyai pengetahuan
atau teori atau suatu hipotesis yang menyusun struktur faktor-faktornya yang akan dibentuk
atau yang terbentuk, sehingga dengan demikian pada analisis faktor eksploratori merupakan
teknik untuk membantu membangun teori baru.

Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari variabel asal
atau variabel awal menjadi variabel baru atau faktor yang jumlahnya lebih kecil dari pada
variabel awal. Proses analisis faktor eksploratori mencoba untuk menemukan hubungan
antarvariabel baru atau faktor yang terbentuk yang saling independen sesamanya, sehingga
bisa dibuat satu atau beberapa kumpulan variabel laten atau faktor yang lebih sedikit dari
jumlah variabel awal yang bebas atau tidak berkorelasi sesamanya. Jadi antar faktor yang
terbentuk tidak berkorelasi sesamanya.

2. Analisis Faktor Konfirmatori (CFA)

Analisis faktor konfirmatori yaitu suatu teknik analisis faktor di mana secara apriori
berdasarkan teori dan konsep yang sudah diketahui dipahami atau ditentukan sebelumnya,
maka dibuat sejumlah faktor yang akan dibentuk, serta variabel apa saja yang termasuk ke
dalam masing-masing faktor yang dibentuk dan sudah pasti tujuannya. Pembentukan faktor
konfirmatori (CFA) secara sengaja berdasarkan teori dan konsep, dalam upaya untuk
mendapatkan variabel baru atau faktor yang mewakili beberapa item atau sub-variabel, yang
merupakan variabel teramati atau observerb variable.

Pada dasarnya tujuan analisis faktor konfirmatori adalah: pertama untuk mengidentifikasi
adanya hubungan antar variabel dengan melakukan uji korelasi. Tujuan kedua untuk menguji
validitas dan reliabilitas instrumen. Dalam pengujian terhadap validitas dan reliabilitas
instrumen atau kuesioner untuk mendapatkan data penelitian yang valid dan reliabel dengan
analisis faktor konfirmatori.

Proses Analisis Faktor


Secara garis besar, tahapan pada analisis faktor:
1. Merumuskan masalah
2. Menyusun matriks korelasi
3. Ekstraksi faktor
4. Merotasi faktor
5. Interpretasikan Faktor.
6. Pembuatan factor scores.
7. Pilih variabel surrogate atau tentukan summated scale.
Pengertian

Apa sebenarnya path anlysis itu? Ada banyak definisi mengenai path anlysis ini, diantaranya:

 “Analisis jalur merupakan perluasan dari regresi linier berganda, dan yang memungkinkan analisis
model-model yang lebih kompleks” (Streiner, 2005)
 “Analisis jalur ialah suatu teknik untuk menganalisis hubungan sebab akibat yang tejadi pada regresi
berganda jika variabel bebasnya mempengaruhi variabel tergantung tidak hanya secara langsung tetapi
juga secara tidak langsung”. (Robert D. Retherford 1993).
 Sedangkan menurut Paul Webley (1997): “Analisis jalur merupakan pengembangan langsung bentuk
regresi berganda dengan tujuan untuk memberikan estimasi tingkat kepentingan (magnitude) dan
signifikansi (significance) hubungan sebab akibat hipotetikal dalam seperangakat variabel.”
 David Garson (2003) dari North Carolina State University mendefinisikan analisis jalur sebagai
“Model perluasan regresi yang digunakan untuk menguji keselarasan matriks korelasi dengan dua atau
lebih model hubungan sebab akibat yang dibandingkan oleh peneliti. Modelnya digambarkan dalam
bentuk gambar lingkaran dan panah dimana anak panah tunggal menunjukkan sebagai penyebab.
Regresi dikenakan pada masing-masing variabel dalam suatu model sebagai variabel tergantung
(pemberi respon) sedang yang lain sebagai penyebab. Pembobotan regresi diprediksikan dalam suatu
model yang dibandingkan dengan matriks korelasi yang diobservasi untuk semua variabel dan
dilakukan juga penghitungan uji keselarasan statistik.
 Menurut penulis analisis jalur merupakan teknik analisis yang digunakan untuk menganalisis
hubungan sebab akibat yang inheren antar variabel yang disusun berdasarkan urutan temporer dengan
menggunakan koefesien jalur sebagai besaran nilai dalam menentukan besarnya pengaruh variabel
independen exogenous terhadap variabel dependen endogenous. (Jonathan Sarwono, 2011)
Dari definisi-definisi di atas dapat dsimpulkan bahwa sebenarnya analisis jalur dapat dikatakan sebagai
kepanjangan dari analisis regresi berganda, meski didasarkan sejarah terdapat perbedaan dasar antara
analisis jalur yang bersifat independen terhadap prosedur statistik dalam menentukan hubungan sebab
akibat; sedang regresi linier memang merupakan prosedur statistik yang digunakan untuk menganalisis
hubungan sebab akibat antar variabel yang dikaji.

Tujuan

Tujuan menggunakan analisis jalur diantaranya ialah untuk:


 Melihat hubungan antar variabel dengan didasarkan pada model apriori

 Menerangkan mengapa variabel-variabel berkorelasi dengan menggunakan suatu model yang berurutan secara
temporer

 Menggambar dan menguji suatu model matematis dengan menggunakan persamaan yang mendasarinya

 Mengidentifikasi jalur penyebab suatu variabel tertentu terhadap variabel lain yang dipengaruhinya.

 Menghitung besarnya pengaruh satu variabel independen exogenous atau lebih terhadap variabel dependen
endogenous lainnya.

Keuntungan dan Kelemahan Analisis jalur

Keuntungan menggunakan analisis jalur, diantaranya:

• Kemampuan menguji model keseluruhan dan parameter – parameter individual,

• Kemampuan pemodelan beberapa variabel mediator / perantara,


• Kemampuan mengestimasi dengan menggunakan persamaan yang dapat melihat semua kemungkinan
hubungan sebab akibat pada semua variabel dalam model,

• Kemampuan melakukan dekomposisi korelasi menjadi hubungan yang bersifat sebab akibat (causal relation),
seperti pengaruh langsung (direct effect) dan pengaruh tidak langsung (indirect effect) dan bukan sebab akibat
(non-causal association), seperti komponen semu (spurious).

Kelemahan menggunakan analisis jalur, diantaranya:

• Tidak dapat mengurangi dampak kesalahan pengukuran,

• Analisis jalur hanya mempunyai variable – variabel yang dapat diobservasi secara langsung,

• Analisis jalur tidak mempunyai indikator – indikator suatu variabel laten,

• Karena analisis jalur merupakan perpanjangan regresi linier berganda, maka semua asumsi dalam rumus ini
harus diikuti,

• Sebab –akibat dalam model hanya bersifat searah (one direction); tidak boleh bersifat timbal balik (reciprocal).

Asumsi – Asumsi dan Prinsip - Prinsip Dasar

Beberapa asumsi dan prinsip – prinsip dasar dalam analisis jalur diantaranya ialah:
 Linearitas (Linearity). Hubungan antar variabel bersifat linear, artinya jika digambarkan membentuk
garis lurus dari kiri bawah ke kanan atas, seperti gambar di bawah ini:

Gambar 5.1 Linieritas


 Ko-linier. Menunjukkan suatu garis yang sama. Maksudnya jika ada beberapa variabel exogenous
mempengaruhi satu variabel endogenous; atau sebaliknya satu variabel exogenous mempengaruhi
beberapa variabel endogenous jika ditarik garis lurus akan membentuk garis-garis yang sama.
 Model Rantai Sebab Akibat: Menunjukkan adanya model sebab akibat dimana urutan kejadian
akhirnya menuju pada variasi dalam variabel dependen / endogenous, seperti gambar di bawah ini.
Dalam gambar dibawah semua urutan kejadian X1, X2, X3, dan X4 menuju ke Y

Gambar 5.2 Model Rantai Sebab Akibat

 Aditivitas (Additivity). Tidak ada efek-efek interaksi


 Hubungan sebab akibat yang tertutup (Causal closure): Semua pengaruh langsung satu variabel
terhadap variabel lainnya harus disertakan dalam diagram jalur.
 Koefesien Beta (β). Merupakan koefesien regresi yang sudah distandarisasi (standardized regression
coefficient) yang menunjukkan jumlah perubahan dalam variabel dependen endogenous yang
dihubungkan dengan perubahan (kenaikan atau penurunan) dalam satu standar deviasi pada variabel
bebas exogenous saat dilakukan pengendalian pengaruh terhadap variabel-variabel independen lainnya.
Koefesien beta disebut juga sebagai bobot beta (β). Nilai ini yang digunakan sebagai besaran nilai
dalam koefesien jalur (p) atau jumlah pengaruh setiap variabel exogenous terhadap variabel
endogenous secara sendiri-sendiri atau disebut sebagai pengaruh parsial.
 Koefesien Determinasi (R2): Disebut juga sebagai indeks asosiasi. Merupakan nilai yang
menunjukkan berapa besar varian dalam satu variabel yang ditentukan atau diterangkan oleh satu atau
lebih variasbel lain dan berapa besar varian dalam satu variabel tersebut berhubungan dengan varian
dalam variabel lainnya. Dalam statistik bivariat disingkat sebagai r 2 sedang dalam multivariat disingkat
sebagai R2. Nilai ini yang digunakan sebagai besaran nilai untuk mengekspresikan besarnya jumlah
pengaruh semua variabel exogenous terhadap variabel endogenous secara gabungan atau disebut
sebagai pengaruh gabungan.
 Data metrik berskala interval. Semua variabel yang diobservasi mempunyai data berskala interval
(scaled values). Jika data belum dalam bentuk skala interval, sebaiknya data diubah dengan
menggunakan metode suksesive interval (Method of Successive Interval /MSI) terlebih dahulu. Jika
data bukan metrik digunakan maka akan mengecilkan nilai koefesien korelasi. Nilai koefesien korelasi
yang kecil akan menyebabkan nilai R2 menjadi semakin kecil. Dengan demikian pemodelan yang
dibuat menggunakan analisis jalur tidak akan valid; karena salah satu indikator kesesuaian model yang
dibuat dengan teori ialah dengan melihat nilai R2 yang mendekati 1. Jika nilai ini semakin mendekati 1;
maka model dianggap baik atau sesuai dengan teori.
 Variabel - variabel residual tidak berkorelasi dengan salah satu variabel-variabel dalam model.
 Istilah gangguan (disturbance terms) atau variabel residual tidak boleh berkorelasi dengan semua
variabel endogenous dalam model. Jika dilanggar, maka akan berakibat hasil regresi menjadi tidak
tepat untuk mengestimasikan parameter-parameter jalur.
 Multikoliniearitas yang rendah. Multikolinieritas maksudnya dua atau lebih variabel bebas
(penyebab) mempunyai hubungan yang sangat tinggi. Jika terjadi hubungan yang tinggi maka kita
akan mendapatkan standard error yang besar dari koefesien beta (b) yang digunakan untuk
menghilangkan varians biasa dalam melakukan analisis korelasi secara parsial.
 Recursivitas. Semua anak panah mempunyai satu arah, tidak boleh terjadi pemutaran kembali
(looping) atau tidak menunjukkan adanya hubungan timbal balik (reciprocal)
 Spesifikasi model benar diperlukan untuk menginterpretasi koefesien-koefesien jalur.
Kesalahan spesifikasi terjadi ketika variabel penyebab yang signifikan dikeluarkan dari model. Semua
koefesien jalur akan merefleksikan kovarians bersama dengan semua variabel yang tidak diukur dan
tidak akan dapat diinterpretasi secara tepat dalm kaitannya dengan akibat langsung dan tidak
langsung.
 Input korelasi yang sesuai. Artinya jika kita menggunakan matriks korelasi sebagai masukan, maka
korelasi Pearson digunakan untuk dua variabel berskala interval; korelasi polychoric untuk dua
variabel berksala ordinal; tetrachoric untuk dua variabel dikotomi (berskala nominal); polyserial untuk
satu variabel interval dan lainnya ordinal; dan biserial untuk satu variabel berskala interval dan lainnya
nominal.
 Terdapat ukuran sampel yang memadai. Pergunakan sample minimal 100 dengan tingkat
kesalahan 10% untuk memperoleh hasil analisis yang signifikan dan lebih akurat. Untuk idealnya besar
sampel sebesar 400 – 1000 (tingkat kesalahan 5%) sebagaimana umumnya persyaratan dalam teknik
analisis multivariat.
 Tidak terjadi Multikolinieritas. Multikolinieritas terjadi jika antar variabel bebas (exogenous) saling
berkorelasi sangat tinggi, misalnya mendekati 1.
 Sampel sama dibutuhkan untuk pengitungan regresi dalam model jalur.
 Merancang model sesuai dengan teori yang sudah ada untuk menunjukan adanya hubungan sebab
akibat dalam variabel – variabel yang sedang diteliti. Sebagai contoh: variabel motivasi, IQ dan
kedisplinan mempengaruhi prestasi belajar. Berdasarkan hubungan antar variabel yang sesuai teori
tersebut, kemudian kita membuat model yang dihipotesikan.
 Karena penghitungan analisis jalur menggunakan teknik regresi linier; maka asumsi umum regresi
linear sebaiknya diikuti, yaitu:
a. Model regresi harus layak. Kelayakan ini diketahui jika angka signifikansi pada ANOVA sebesar <
0.05
b. Predictor yang digunakan sebagai variable bebas harus layak. Kelayakan ini diketahui jika angka
Standard Error of Estimate < Standard Deviation
c. Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji T. Koefesien regresi signifikan
jika T hitung > T table (nilai kritis)
d. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi antar
variable bebas.
e. Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Dubin dan Watson sebesar < 1 dan > 3

Persyaratan dan Tahapan dalam Menggunakan Analisis Jalur

Persyaratan mutlak yang harus dipenuhi saat kita akan menggunakan analisis jalur disamping apa yang sudah
dibahas secara detil di bab 5, sebaiknya beberapa persyaratan ini tidak boleh dilanggar:

 Data metrik berskala interval

 Terdapat variabel independen exogenous dan dependen endogenous untuk model regresi berganda dan variabel
perantara untuk model mediasi dan model gabungan mediasi dan regresi berganda serta model kompleks.

 Ukuran sampel yang memadai, sebaiknya di atas 100 dan idealnya 400 - 1000

 Pola hubungan antar variabel: pola hubungan antar variabel hanya satu arah tidak boleh ada hubungan timbal
balik (reciprocal)

 Hubungan sebab akibat didasarkan pada teori yang sudah ada dengan asumsi sebelumnya menyatakan bahwa
memang terdapat hubungan sebab akibat dalam variabel-variabel yang sedang kita teliti.

 Pertimbangkan hal-hal yang sudah dibahas dalam asumsi dan prinsip-prinsip dasar di bab sebelumnya.
Tahapan dalam Menggunakan Analisis Jalur
Tahapan dalam melakukan analisis jalur ialah:
1. Merancang model didasarkan pada teori. Sebagai contoh kita akan melihat pengaruh variabel kualitas produk,
harga dan pelayanan terhadap tingkat kepuasan pelanggan. Berangkat dari teori yang ada kemudian kita
membuat model yang dihipotesiskan.

Gambar 6.1 Model Didasarkan pada Teori

2. Model yang dihipotesiskan: Pada bagian ini kita membuat hipotesis yang menyatakan, misalnya:

H0: Variabel variabel kualitas produk, harga dan pelayanan tidak berpengaruh terhadap tingkat kepuasan
pelanggan baik secara gabungan maupun parsial.

H1: Variabel variabel kualitas produk, harga dan pelayanan berpengaruh terhadap tingkat kepuasan pelanggan
baik secara gabungan maupun parsial.

3. Menentukan model diagram jalurnya didasarkan pada variabel – variabel yang dikaji.
Gambar 6.2 Model Diagram Jalur

4. Membuat diagram jalur: kemudian kita membuat diagram jalur seperti di bawah ini:

Gambar 6.3 Diagram Jalur

Dimana:

 X1 sebagai variabel independen exogenous kualitas produk


 X2 sebagai variabel independen exogenous harga
 X3 sebagai variabel independen exogenous layanan
 Y sebagai variabel dependen endogenous tingkat kepuasan

5. Membuat persamaan struktural.

Diagram jalur di atas persamaan strukturalnya ialah: Y = PYX1 + PYX2 + PYX3 + e1

6. Melakukan prosedur analisis jalur dengan SPSS: Bagian ini akan dibahas di bab-bab contoh aplikasi selanjutnya

7. Menghitung nilai: Bagian ini akan dibahas di bab-bab contoh aplikasi selanjutnya

a. Pengaruh gabungan
b. Pengaruh parsial
c. Pengaruh langsung
d. Pengaruh tidak langsung
e. Pengaruh total
f. Pengaruh faktor lain
g. Korelasi
8. Uji validitas hasil analisis: Bagian ini akan dibahas di bab-bab contoh aplikasi selanjutnya

a. Dengan menggunakan nilai sig pada ANOVA untuk melihat model keseluruhan yang benar
dan pengaruh gabungan.
b. Dengan menggunakan uji t untuk pengaruh parsial
A. DEFINISI ANALISIS JALUR
Analisis jalur adalah suatu teknik pengembangan dari regresi linier ganda.Teknik ini
digunakan untuk menguji besarnya sumbangan (kontribusi) yang ditunjukkan oleh koefisien
jalur pada setiap diagram jalur dari hubungan kausal antar variabel X1 X2 dan X3 terhadap Y
serta dampaknya terhadap Z. “Analisis jalur ialah suatu teknik untuk menganalisis hubungan
sebab akibat yang tejadi pada regresi berganda jika variabel bebasnya mempengaruhi variabel
tergantung tidak hanya secara langsung tetapi juga secara tidak langsung”. (Robert D.
Retherford 1993).

Sedangkan definisi lain mengatakan: “Analisis jalur merupakan pengembangan langsung


bentuk regresi berganda dengan tujuan untuk memberikan estimasi tingkat kepentingan
(magnitude) dan signifikansi (significance) hubungan sebab akibat hipotetikal dalam
seperangkat variabel.” (Paul Webley 1997).

David Garson dari North Carolina State University mendefinisikan analisis jalur sebagai
“Model perluasan regresi yang digunakan untuk menguji keselarasan matriks korelasi
dengan dua atau lebih model hubungan sebab akibat yang dibandingkan oleh peneliti.
Modelnya digambarkan dalam bentuk gambar lingkaran dan panah dimana anak panah
tunggal menunjukkan sebagai penyebab. Regresi dikenakan pada masing-masing variabel
dalam suatu model sebagai variabel tergantung (pemberi respon) sedang yang lain sebagai
penyebab. Pembobotan regresi diprediksikan dalam suatu model yang dibandingkan dengan
matriks korelasi yang diobservasi untuk semua variabel dan dilakukan juga penghitungan uji
keselarasan statistik. (David Garson, 2003).

B. KARAKTERISTIK ANALISIS JALUR

Merujuk pendapat yang dikemukakan oleh Land, Ching, Heise, Maruyama, Schumaker dan
Lomax, Joreskog (dalam Kusnendi, 2008:147-148), karakteristik analisis jalur adalah metode
analisis data multivariat dependensi yang digunakan untuk menguji hipotesis hubungan
asimetris yang dibangun atas dasar kajian teori tertentu, dengan tujuan untuk mengetahui
pengaruh langsung dan tidak langsung seperangkat variabel penyebab terhadap variabel
akibat.

Menguji hipotesis hubungan asimetris yang dibangun atas kajian teori tertentu artinya yang
diuji adalah model yang menjelaskan hubungan kausal antarvariabel yang dibangun atas
kajian teori teori tertentu. Hubungan kausal tersebut secara eksplisit dirumuskan dalam
bentuk hipotesis direksional, baik positif maupun negative.

C. Beberapa istilah yang lazim digunakan dalam analisis jalur antara lain :

1. Model jalur. Model jalur ialah suatu diagram yang menghubungkan antara variabel
bebas, perantara dan tergantung. Pola hubungan ditunjukkan dengan menggunakan
anak panah. Anak panah-anak panah tunggal menunjukkan hubungan sebab–akibat
antara variabel-variabel exogenous atau perantara dengan satu variabel tergantung
atau lebih. Anak panah juga menghubungkan kesalahan (variabel residue) dengan
semua variabel endogenous masing-masing. Anak panah ganda menunjukkan korelasi
antara pasangan variabel-variabel exogenous.
2. Jalur penyebab untuk suatu variabel yang diberikan meliputi pertama jalur-jalur
arah dari anak-anak panah menuju ke variabel tersebut dan kedua jalur-jalur korelasi
dari semua variabel endogenous yang dikorelasikan dengan variabel-variabel yang
lain yang mempunyai anak panah-anak panah menuju ke variabel yang sudah ada
tersebut.
3. Variabel exogenous. Variabel – variabel exogenous dalam suatu model jalur ialah
semua variabel yang tidak ada penyebab-penyebab eskplisitnya atau dalam diagram
tidak ada anak-anak panah yang menuju kearahnya, selain pada bagian kesalahan
pengukuran. Jika antara variabel exogenous dikorelasikan maka korelasi tersebut
ditunjukkan dengan anak panah dengan kepala dua yang menghubungkan variabel-
variabel tersebut. Dalam istilah lain, dapat disebut pula sebagai independen variabel.
4. Variabel endogenous. Variabel endogenous ialah variabel yang mempunyai anak-
anak panah menuju kearah variabel tersebut. Variabel yang termasuk didalamnya
ialah mencakup semua variabel perantara dan tergantung. Variabel perantara
endogenous mempunyai anak panah yang menuju kearahnya dan dari arah variabel
tersebut dalam sutau model diagram jalur. Sedang variabel tergantung hanya
mempunyai anak panah yang menuju kearahnya. Atau dapat disebut juga sebagai
variabel dependen.
5. Koefesien jalur / pembobotan jalur. Koefesien jalur adalah koefesien regresi
standar atau disebut ‘beta’ yang menunjukkan pengaruh langsung dari suatu variabel
bebas terhadap variabel tergantung dalam suatu model jalur tertentu. Oleh karena itu,
jika suatu model mempunyai dua atau lebih variabel-variabel penyebab, maka
koefesien-koefesien jalurnya merupakan koefesien-koefesien regresi parsial yang
mengukur besarnya pengaruh satu variabel terhadap variabel lain dalam suatu model
jalur tertentu yang mengontrol dua variabel lain sebelumnya dengan menggunakan
data yang sudah distandarkan atau matriks korelasi sebagai masukan.
6. Variabel Laten dapat didefinisikan sebagai variabel penyebab yang tidak dapat
diobservasi secara langsung (unobservable). Pengamatan variabel tersebut diamati
melalui variabel manifesnya. Variabel manifest adalah variabel indicator terukur yang
dapat diobservasi secara langsung untuk mengukur variabel laten. Contoh : variabel
laten motivasi. Tidak bisa diobservasi secara langsung, namun melalui variabel
manifesnya (indicator) seperti kerja keras, pantang penyerah, tekun, teliti, dll.
7. Variabel Mediator / Intervening dan Moderator
8. Dalam statistik, analisis jalur atau biasa lebih dikenal dengan Path Analysis digunakan
untuk mengetahui hubungan ketergantungan langsung diantara satu set variabel. Path
Analysis adalah model yang serupa dengan model analisis regresi berganda, analisis
faktor, analisis korelasi kanonik, analisis diskriminan dan kelompok analisis
multivariat yang lebih umum lainnya seperti analisis anova, manova, anacova.
9. Dalam hal kausalitas, Path Analysis dapat dipandang sebagai analisis yang mirip
dengan analisis regresi. Keduanya sama-sama menganalisis model kausalitas.
Perbedaannya terletak pada tingkat kerumitan model. Model analisis regresi lebih
banyak menganalisis variabel dependent sebagai dampak dari variabel independent.
Variabel dependent tersebut tidak memberikan dampak terhadap variabel lainnya.
Ketika peneliti dihadapkan pada model dimana variabel dependent menyebabkan
variabel dependent lainnya, maka analisis jalur lebih cocok digunakan.
10. Dalam hal lainnya, analisis jalur juga dapat dilihat sebagai SEM (Structural Equation
Modeling) dimana analisis jalur adalah SEM yang hanya memiliki satu indikator, atau
model stuktural dari analisis SEM. Perbedaannya adalah analisis jalur hanya
menganalisis variabel konstruk, sedangkan pada SEM semua variabel baik variabel
indikator maupun variabel konstruk dianalisis secara bersama-sama dalam satu model.
11. Pemodelan Path Analysis
12. Pada model di bawah, model terdiri atas EX1 dan EX2 sebagai variabel eksogen yang
mana satu sama lain berkorelasi. Kedua variabel ini memiliki pengaruh langsung
terhadap En2 atau secara tidak langsung melalui variabel En1. En1 dan En2 disebut
sebagai variabel endogen. Dalam model riil, variabel eksogen dimungkinkan
dipengaruhi oleh variabel lain diluar EX1 dan EX2. Variabel lain diluar kedua
variabel ini disimbolkan sebagai e (variabel eror).

13.
14. Keunggulan Path Analysis dibandingkan analisis regresi berganda adalah:
15. 1. Peneliti dapat secara simultan mengukur pengaruh variabel eksogen terhadap
variabel endogen.
16. 2. Peneliti dapat menguji apakah model sudah cukup fit dengan data.
17. 3. Peneliti dapat menguji model yang memiliki permasalahan multikolinieritas
(korelasi yang tinggi antara variabel eksogen).
18. 4. Peneliti dapat melakukan pebandingan pengaruh langsung dan tidak langsung dari
variabel eksogen terhadap variabel endogen.

Anda mungkin juga menyukai