Anda di halaman 1dari 4

Definisi Multikolinearitas

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau


hubungan kuat antara dua variabel bebas atau lebih dalam sebuah model regresi
berganda. Model regresi yang dimaksud dalam hal ini antara lain: regresi linear,
regresi logistik, regresi data panel dan cox regression.

Gejala Multikolinearitas
Dalam situasi terjadi multikolinearitas dalam sebuah model regresi berganda,
maka nilai koefisien beta dari sebuah variabel bebas atau variabel predictor dapat
berubah secara dramatis apabila ada penambahan atau pengurangan variabel bebas
di dalam model. Oleh karena itu, multikolinearitas tidak mengurangi kekuatan
prediksi secara simultan, namun mempengaruhi nilai prediksi dari sebuah variabel
bebas. Nilai prediksi sebuah variabel bebas disini adalah koefisien beta. Oleh
karena itu, sering kali kita bisa mendeteksi adanya multikolinearitas dengan
adanya nilai standar error yang besar dari sebuah variabel bebas dalam model
regresi.

Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi


multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan variabel
lainnya di dalam model, kekuatan prediksinya tidak handal dan tidak stabil. Dan
pengertian multikolinearitas adalah sesungguhnya terletak pada ada atau tidak
adanya korelasi antar variabel bebas.
Penyebab Multikolinearitas

Penyebab multikolinearitas adalah adanya korelasi atau hubungan yang kuat


antara dua variabel bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun
penyebab lainnya yang dapat menyebabkan hal tersebut secara tidak langsung
adalah, antara lain:
Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan
lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di
dalam model.
Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas
lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model
regresi anda, ada variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2).
Dalam situasi tersebut bisa dipastikan, terdapat kolinearitas antara X1 dan X1*X2
serta kolinearitas antara X2 dengan X1*X2.
Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha +
Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.
Dampak dari Multikolinearitas

Dampak

Dampak dari multikolinearitas antara lain:

Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar
errornya besar.
Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan
drastis pada nilai koefisien regresi partial.
Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai
koefisien regresi parsial variabel lainnya.
Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk
menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut
terdapat multikolinearitas.
Contoh

Untuk memudahkan para pembaca memahami dampak di atas, kami coba


ilustrasikan sebagai berikut:
Anda harus pahami dulu yang dimaksud dengan koefisien regresi parsial. Dalam
hal ini biasanya lebih dikenal dengan istilah koefisien Beta. Koefisien Beta itu
seperti yang ada dalam contoh persamaan regresi berikut: Y = Alpha + Beta1 X1
+ Beta2 X2 + e.

ORDINARY LEAST SQUARE

A. Regresi Sederhana (OLS Sederhana)

1. Pengantar

Model regresi sederhana adalah suatu model yang melihat hubungan antar dua
variabel. Salah satu variabel menjadi variabel bebas (Independent variable) dan
variabel yang lain menjadi variabel terikat (Dependent variable). Dalam regresi
sederhana ini, akan kita ambil suatu contoh kasus mengenai hubungan antara
pengeluaran konsumsi dan pendapatan di US pada tahun 1996 – 2005 (Gujarati,
2003: 6). Persamaan model ini adalah:

Y = b0 + b1X + m

Dimana, Y adalah pengeluaran konsumsi, b0 adalah konsumsi autonom, X


merupakan pendapatan dan m adalah error term.

VIF (variance inflation factor) merupakan salah satu statistik yang dapat
digunakan untuk mendeteksi gejala multikolinear (multicollinearity, collinearity)
pada analisis regresi yang sedang kita susun. VIF tidak lain adalah mengukur
keeratan hubungan antar variabel bebas, atau X.

Bagaimana menghitung VIF? Ini tidak lain adalah fungsi dari R2 model antar X.
Andaikan kita memiliki tiga buah variabel bebas: X1, X2, dan X3 dan ketiganya
mau diregresikan dengan sebuah variabel tak bebas Y. Nilai VIF kita hitung
untuk masing-masing X.

Untuk X1, prosedurnya adalah


– regresikan X1 terhadap X2 dan X3, atau modelnya X1 = b0 + b1X2 +
b2X3 + e
– hitung R2 dari model tersebut
– VIF untuk X1 adalah VIF1 = 1 / (1 – R2)

Untuk X2, senada saja dengan prosedur di atas


– regresikan X2 terhadap X1 dan X3, atau modelnya X2 = b0 + b1X1 +
b2X3 + e
– hitung R2 dari model tersebut
– VIF untuk X2 adalah VIF2 = 1 / (1 – R2)

Perhatikan bahwa R2 dalam hitungan di atas adalah ukuran keeratan antar X. Jika
R2 = 0, maka VIF = 1. Kondisi ini adalah kondisi ideal. Jadi idealnya, nilai VIF
= 1.

Semakin besar R2, maka VIF semakin tinggi (semakin kuat adanya collinearity).
Misal R2 = 0.8 akan menghasilkan VIF = 5.

Tidak ada batasan baku berapa nilai VIF dikatakan tinggi, nilai VIF di atas 5
sudah membuat kita harus hati-hati.

Anda mungkin juga menyukai