Anda di halaman 1dari 8

MULTIKOLINIERITAS

1. POPI MERKURI
2. PUTRI MAHARANI PUJIANTI
3. RAHMANSYAH
4. RESA DEVINA
5. RIRIN EKY B
6. SALAM AULIA PUTRI SUHERMAN
7. SAMUEL KALVIN FEBRIANTO
8. SINTA MARIA WATI
9. SRI BAY ULFFA
PENGERTIAN MULTIKOLINIERITAS

Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris:


Multicollinearity) adalah adanya hubungan linear antara peubah bebas
X dalam Model Regresi Ganda Jika hubungan linear antar peubah bebas
X dalam Model Regresi Ganda adalah korelasi sempurna maka peubah-
peubah tersebut berkolinearitas ganda sempurna (Bahasa Inggris :
perfect multicollinearity).
Uji multikolinieritas merupakan bagaian ujian dari asumsi klasik
(normalitas dan heteroskedestisitas) dalam analisis regresi linear
berganda. Tujuan digunakankan uji multikolinieritas dalam penelitian
adalah untuk menguji apakah model regresi ditemukan adanya korelasi
(hubungan kuat) antar variabel bebas atau variabel independent.
Identifikasi Adanya Multikolinieritas

Untuk mengidentifikasi adanya suatu Multikolinieritas dapat dilakukan dengan


cara sebagai berikut:
1. Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau lebih variabel
bebas dalam model.
2. Mencari nilai Condition Index (CI). Condition indek yang bernilai lebih dari 30
mengindentifikasikan adanya multikolineritas.
3. Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL),
Eigenvalue, dan yang paling umum digunakan adalah Varians Inflation Factor
(VIF). nilai VIF > 10 mengindentifikasi adanya multikolinieritas.
Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan
cara:
1. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel
bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
2. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error >
1, maka dapat diindikasikan adanya multikolinearitas.
3. Melihat rentang confidence interval. Jika rentang confidence interval sangat
lebar, maka dapat diindikasikan adanya multikolinearitas.
4. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan
nilai eigenvalue < 0,001 dapat diindikasikan adanya multikolinearitas.
5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance <
0,1 dan VIF > 10 dapat diindikasikan adanya multikolinearitas. Sebagian pakar
menggunakan batasan Tolerance < 0,2 dan VIF > 5 dalam menentukan adanya
multikolinearitas.
Cara mengatasi multikolinieritas dalam model:
1. Jika kita menjumpai terdapat variabel prediktor yang memiliki nilai VIF lebih dari 5
atau 10, maka kita perlu untuk mengeluarkan salah satu variabel tersebut dari model.
Tujuannya adalah untuk mengeluarkan informasi yang redundant yang sebenarnya
sudah diwakili oleh variabel prediktor yang lain. Namun jangan khawatir,
mengeluarkan salah satu variabel prediktor tidak akan menurunkan nilai R kuadrat
secara drastis, jika memang terdapat multikolinieritas dalam model.
2. Untuk menghasilkan kombinasi variabel prediktor yang menghasilkan R kuadrat
tertinggi, gunakanlah metode regresi stepwise dalam SPSS.
3. Lakukanlah transformasi data misalnya menjadi bentuk logaritma atau bentuk
diferensarialnya. Tansformasi data ke dalam diferensial lebih cocok untuk data time
series. Sementara untuk data-data penelitian survei sosial kurang cocok karena akan
sulit menginterpretasikan model diferensialnya.
4. Gunakanlah Principal Component Analysis (PCA). Prinsipnya adalah
menyederhanakan atau menggabungkan jumlah variabel prediktor menjadi lebih
sedikit jumlah variabel tanpa mereduksi satupun variabel prediktor, namun dengan
menjadikannya dalam satu skor. Hasil dari pca adalah skor dari variabel prediktor
baru yang memiliki korelasi yang minimum sehinggi efektif untuk mengatasi
multikolinieritas.
5. Gunakanlah Partial Least Square Regression(PLS). Jika kita menggunakan PCA maka
bisa dipastikan kita akan mendapatkan variabel prediktor baru yang memiliki
korelasi minimum diantara variabel prediktornya. Permasalahan yang mungkin
muncul adalah, variabel prediktor baru tersebut bisa saja tidak memiliki hubungan
yang signifikan juga dengan variabel respon (Y). Maka kita akan menghadapi
permasalahan baru berikutnya yaitu tidak signifikannya model regresi. Jalan
tengahnya adalah PLS, dimana secara perhitungan masih mempertimbangkan
variabel prediktor yang memiliki hubungan tinggi dengan variabel respon namun
mencari kombinasi variabel prediktor yang memiliki nilai korelasi minimum diantara
mereka.
 
KESIMPULAN

1. Multikolinieritas adalah kondisi terdapatnya hubungan linier atau korelasi


yang tinggi antara masing-masing variabel independent dalam model regresi.
Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang
digunakan salang terkait dalam satu model regresi
2. Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih kecil sehingga
variabel bebas tersebut menjadi tidak signifikan pengaruhnya. pengaruh lebih
lanjutnya adalah bahwa koefisien regresi yang dihasilkan tidak mencerminkan
nilai yang sebenarnya dimana sebagian koefisien cenderung over estimate
dan yang lain under estimate
3. Walaupun koefisien regresi dari variabel X dapat ditentukan (determinate),
tetapi kesalahan standarnya akan cenderung semakin besar dengan
meningkatnya tingkat korelasi antara peningkatan variabel bebas.
SELESAI TERIMAKASIH

Anda mungkin juga menyukai