Anda di halaman 1dari 15

PERTEMUAN 11

UJI MULTIKOLINEARITAS DAN AUTOKORELASI

A. UJI MULTIKOLINIERITAS

Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang


tinggi antara masing-masing variabel independen dalam model regresi.
Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang digunakan
saling terkait dalam suatu model regresi. Oleh karena itu masalah
multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya
melibatkan satu variabel independen.

Indikasi terdapat masalah multikolinearitas dapat kita lihat dari kasus-kasus


sebagai berikut:
1. Nilai R2 yang tinggi (signifikan), namun nilai standar error dan tingkat
signifikansi masing-masing variabel sangat rendah.
2. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan
pada variabel yang diamati.
3. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang
seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan
nilai negatif.

Memang belum ada kriteria yang jelas dalam mendeteksi masalah


multikolinearitas dalam model regresi linier. Selain itu hubungan korelasi yang
tinggi belum tentu berimplikasi terhadap masalah multikolinearitas. Tetapi kita
dapat melihat indikasi multikolinearitas dengan tolerance value (TOL),
eigenvalue, dan yang paling umum digunakan adalah varians inflation factor
(VIF).

Hingga saat ini tidak ada kriteria formal untuk menentukan batas terendah dari
nilai toleransi atau VIF. Beberapa ahli berpendapat bahwa nilai toleransi kurang
dari 1 atau VIF lebih besar dari 10 menunjukkan multikolinearitas signifikan,
sementara itu para ahli lainnya menegaskan bahwa besarnya R 2 model dianggap
mengindikasikan adanya multikolinearitas. Klein (1962) menunjukkan bahwa,
jika VIF lebih besar dari 1/(1 – R2) atau nilai toleransi kurang dari (1 – R2), maka
multikolinearitas dapat dianggap signifikan secara statistik.
Uji multikolinearitas dengan menggunakan Variance Inflation Factor (VIF) paling
jamak dilakukan dalam penelitian di Indonesia. Asumsi multikolinearitas
terpenuhi jika nilai VIF pada output SPSS di bawah 10. Karena VIF =
1/Tolerance, maka asumsi multikolinearitas juga dapat ditentukan dengan
Tolerance di bawah 0,1. Pengujian multikolinearitas VIF dengan SPSS bisa
dilakukan masuk ke menu Analyze, pilih Regression, lalu pilih Linear.

Program akan mengarahkan ke menu regresi linear, dan pindahnya kepuasan


pengunjung (dependen) ke baris dependen (di bagian atas), dan pindahnya data
Kualitas Produk/Jasa (X1), Sarana dan Prasarana (X2) dan Distribusi (X3) ke
kotak Independen.
Setelah itu, klik pada Statistic di bagian kiri bawah dan akan diarahkan ke kotak
sebagai berikut:

Beri tanda centang pada Collinearity Diagnostics, lalu tekan Continue sehingga
dikembalikan ke menu regresi lalu tekan OK. Dengan demikian akan SPSS akan
mengeluarkan output. Pada output cari kotak dengan judul Coefficient, yang
hasilnya sebagai berikut:
Pada sisi paling kanan muncul nilai VIF dan Tolerance. Tampak bahwa tidak ada
nilai VIF yang di atas 10 atau Tolerance di bawah 0,1. Berarti tidak terdapat
gangguan multikolinearitas pada model penelitian. Hasil ini konsisten dengan
pengujian multikolinearitas dengan korelasi pada naskah sebelumnya karena
menggunakan distribusi data yang sama.

Meskipun nilai batas VIF sebesar 10 banyak diaplikasikan, akan tetapi dalam
tutorial SPSS memberikan nilai batas VIF hanya sebesar 2. Jika VIF memberikan
nilai di atas 2 maka perlu diperkuat lagi dengan uji Condition Index (CI) dan
Eigenvalue yang akan dibahas pada naskah selanjutnya.
Baca Selengkapnya »»
Diposting oleh Analisis Statistik Skripsi Tesis di 2:22 PM 4 komentar Link ke
posting ini

Label: Multikolinearitas, Uji Asumsi Klasik

UJI MULTIKOLINEARITAS DENGAN KORELASI


Gangguan multikolinearitas pada model regresi berganda juga dapat dideteksi
dengan metode korelasi. Sebenarnya logis saja, karena gangguan multikolinearitas
adalah adanya korelasi antara variabel bebas yang terlalu tinggi. Jadi kita dapat
mendeteksi gangguan multikolinearitas dengan metode korelasi. Gangguan
multikolinearitas dianggap mengganggu model regresi jika ada sepasang variabel
bebas yang mempunyai korelasi di atas 0,9.

Pengujian multikolinearitas dengan SPSS bisa dilakukan secara langsung sebagai


berikut. Masuk ke menu Analyze, pilih Regression, lalu pilih Linear.
Program akan mengarahkan ke menu regresi linear, dan pindahnya kepuasan
pengunjung (dependen) ke baris dependen (di bagian atas), dan pindahnya data
Kualitas Produk/Jasa (X1), Sarana dan Prasarana (X2) dan Distribusi (X3) ke
kotak Independen.

Setelah itu, klik pada Statistic di bagian kiri bawah dan akan diarahkan ke kotak
sebagai berikut:
Beri tanda centang pada Descriptives, lalu tekan Continue sehingga dikembalikan
ke menu regresi lalu tekan OK. Dengan demikian akan SPSS akan mengeluarkan
output. Pada output cari kotak dengan judul Correlation, yang hasilnya sebagai
berikut:

Tampak bahwa korelasi antara Kualitas Produk/Jasa (X1) dengan Sarana dan
Prasarana (X2) adalah sebesar 0,590; korelasi antara Kualitas Produk/Jasa (X1)
dengan Distribusi (X3) adalah sebesar 0,583; dan korelasi antara Sarana dan
Prasarana (X2) dengan Distribusi (X3) adalah sebesar 0,578. Tampak bahwa tidak
ada korelasi antara variabel bebas yang nilainya di atas 0,9. Hal ini menunjukkan
bahwa korelasi antara variabel bebas pada model regresi tidak mengganggu
model, atau model terbebas dari gangguan multikolinearitas.
Metode korelasi juga bisa dilakukan tanpa menggunakan menu regresi, tetapi
dengan menggunakan menu Correlation. Pilih menu Analyze, lalu Correlate, dan
klik pada Bivariate.

Masukkan variabel bebas (X1, X2 dan X3) ke box Variables, lalu klik One-tailed
di bagian kanan bawah, lalu tekan OK. Maka Program akan mengeluarkan output
seperti ini:

Tampak bahwa korelasi antara Kualitas Produk/Jasa (X1) dengan Sarana dan
Prasarana (X2) adalah sebesar 0,590; korelasi antara Kualitas Produk/Jasa (X1)
dengan Distribusi (X3) adalah sebesar 0,583; dan korelasi antara Sarana dan
Prasarana (X2) dengan Distribusi (X3) adalah sebesar 0,578. Hasilnya adalah
sama dengan menu regresi di atas.
UJI MULTIKOLINEARITAS

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi
antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada
korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara
variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi,
adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan
kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya
adalah bahwa model tersebut untuk mencari pengaruh antara motivasi,
kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi
yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan
kerja atau antara kepemimpinan denga
B. UJI AUTOKORELASI

Uji autokorelasi digunakan untuk melihat apakah ada hubungan linier antara
error serangkaian observasi yang diurutkan menurut waktu (data time series). Uji
autokorelasi perlu dilakukan apabila data yang dianalisis merupakan data time
series (Gujarati, 1993).

dimana:

d = nilai Durbin Watson

Σei = jumlah kuadrat sisa

Nilai Durbin Watson kemudian dibandingkan dengan nilai d-tabel. Hasil


perbandingan akan menghasilkan kesimpulan seperti kriteria sebagai berikut:
1. Jika d < dl, berarti terdapat autokorelasi positif
2. Jika d > (4 – dl), berarti terdapat autokorelasi negatif
3. Jika du < d < (4 – dl), berarti tidak terdapat autokorelasi
4. Jika dl < d < du atau (4 – du), berarti tidak dapat disimpulkan

Berikut ini adalah daerah pengujian durbin watson:

Oke, kemudian kita lihat contoh berikut (pengerjaannya sama dengan langkah
pengerjaan regresi linier berganda, untuk yang belum mengerti secara penuh
regresi linier berganda bisa menyimaknya disini >>:

Seandainya kita memiliki variabel dependen (Y) tingkat inflasi di Amerika


Serikat, dengan variabel independen yang diamati adalah kurs Yen terhadap
US$ (X1), kurs Rupiah terhadap US$ (X2), dan kurs US$ terhadap
Poundsterling (X3), maka kita akan memilki model sebagai berikut:

Y = β0 + β1X1 + β2X2 + β3X3 + ε

Berikut adalah data-datanya selama 10 tahun dari tahun 1979 – 1988:


Y X1 X2 X3
7,62 623 219,02 2,12
6,5 627 226,63 2,33
5,75 632 220,63 2,02
9,2 661 249,06 1,75
11,03 889 237,55 1,52
6,16 901 237,45 1,34
2,93 778 238,47 1,30
2,81 855 168,35 1,47
2,61 1.153 144,6 1,64
2,96 1.325 128,17 1,78

Maka dengan Minitab 14, langkah-langkah pengerjaannya adalah sebagai


berikut:

1. Buka Minitab, kemudian copy – paste datanya ke dalam worksheet minitab


seperti berikut ini:
2. Kemudian langkah kedua, dari menubar pilih Stat – Regression – Regression
seperti berikut:
3. Setelah muncul kotak dialog Regression, masukkan variabel Y ke kotak
Response, dan masukkan variabel X1, X2, dan X3 ke kotak Predictors. Proses ini
dilakukan dengan memblok variabel dan pilih select. Setelah itu pilih Option (kiri
bawah), lalu centang durbin Watson statistic, varians inflation factor, dan
predicter R-square. Durbin Watson statistic berguna untuk melihat indikasi
autokorelasi, sedangkan nilai varians inflation factor (VIF) adalah untuk melihat
adanya indikasi multikolinearitas pada model, kemudian klik OK – OK,
4. Kemudian outputnya seperti berikut:
Persamaan Regresi yang dihasilkan adalah:

Y = -26,3 + 0,0086 X1 + 0,0843 X2 + 4,26 X3

Dari persamaan tersebut dapat dikemukakan bahwa semua variabel berpengaruh


positif, artinya jika terjadi kenaikan inflasi di Amerika Serikat, maka akan
diikuti oleh ketiga variabel penjelas/independen. Dengan koefisien korelasi
X1 dan X2 yang sangat kecil, maka pengaruhnya tidak signifikan. Karena jumlah
sampel yang baik minimal adalah 30, serta pemilihan variabel secara dilakukan
secara acak, karena untuk kebutuhan ilustrasi saja.

Nilai VIF pada output menunjukkan keberadaan multikolinearitas tidak


signifikan, artinya tidak ada indikasi multikolinearitas dalam model. Ini
ditunjukkan dengan nilai VIF berturut-turut untuk X1, X2, dan X3 adalah 4,7,
3,9, dan 1,7.

Nilai signifikansi pada output Analysis Of Variance menunjukkan model regresi


yang digunakan kurang baik, diindikasikan dengan nilai F-statistik yang kecil
(3,44%) dan nilai p-value 0,092 > 0,05.
Nilai Durbin Watson mengindikasikan tidak adanya autokorelasi yang terjadi
yang diindikasikan dengan nilai 2,06. Nilai tersebut terletak pada daerah tengah
rentang pengujian autokorelasi Durbin Watson.

Untuk masalah heteroskedastisitas, akan dibahas pada bahasan lain Statistik 4


Life. (yoz)

DIarsipkan di bawah: teknik regresi | Ditandai: autokorelasi statistik, konsep


autokorelasi, Regresi linier, teori multikolinearitas, uji autokorelasi, uji
multikolinearitas

Anda mungkin juga menyukai