Anda di halaman 1dari 12

Multikolinearitas

Definisi Multikolinearitas
Multikolinearitas adalah sebuah situasi yang menunjukkan
adanya korelasi atau hubungan kuat antara dua variabel bebas
atau lebih dalam sebuah model regresi berganda. Model regresi
yang dimaksud dalam hal ini antara lain: regresi linear, regresi
logistik, regresi data panel dan cox regression.

Gejala Multikolinearitas
Dalam situasi terjadi multikolinearitas dalam sebuah model regresi
berganda, maka nilai koefisien beta dari sebuah variabel bebas
atau variabel predictor dapat berubah secara dramatis apabila ada
penambahan atau pengurangan variabel bebas di dalam model.
Oleh karena itu, multikolinearitas tidak mengurangi kekuatan
prediksi secara simultan, namun mempengaruhi nilai prediksi dari
sebuah variabel bebas. Nilai prediksi sebuah variabel bebas disini
adalah koefisien beta. Oleh karena itu, sering kali kita bisa
mendeteksi adanya multikolinearitas dengan adanya nilai standar
error yang besar dari sebuah variabel bebas dalam model regresi.

Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa,


jika terjadi multikolinearitas, maka sebuah variabel yang berkorelasi
kuat dengan variabel lainnya di dalam model, kekuatan prediksinya
tidak handal dan tidak stabil. Dan pengertian multikolinearitas
adalahsesungguhnya terletak pada ada atau tidak
adanya korelasi antar variabel bebas.

Penyebab Multikolinearitas
Penyebab multikolinearitas adalah adanya korelasi atau
hubungan yang kuat antara dua variabel bebas atau lebih, seperti
yang sudah dijelaskan di atas. Namun penyebab lainnya yang
dapat menyebabkan hal tersebut secara tidak langsung adalah,
antara lain:

1. Penggunaan variabel dummy yang tidak akurat di dalam


model regresi. Akan lebih beresiko terjadi multikolinearitas jika
ada lebih dari 1 variabel dummy di dalam model.
2. Adanya perhitungan sebuah variabel bebas yang didasarkan
pada variabel bebas lainnya di dalam model. Hal ini bisa
dicontohkan sebagai berikut: dalam model regresi anda, ada
variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2).
Dalam situasi tersebut bisa dipastikan, terdapat kolinearitas
antara X1 dan X1*X2 serta kolinearitas antara X2 dengan
X1*X2.
3. Adanya pengulangan variabel bebas di dalam model,
misalkan: Y = Alpha + Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.
Dampak dari Multikolinearitas
Dampak
Dampak dari multikolinearitas antara lain:

1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh


karena itu nilai standar errornya besar.
2. Perubahan kecil pada data dari sampel ke sampel akan
menyebabkan perubahan drastis pada nilai koefisien regresi
partial.
3. Perubahan pada satu variabel dapat menyebabkan
perubahan besar pada nilai koefisien regresi parsial variabel
lainnya.
4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi
sangat sulit untuk menolak hipotesis nol pada sebuah
penelitian jika dalam penelitian tersebut terdapat
multikolinearitas.
Contoh
Untuk memudahkan para pembaca memahami dampak di atas,
kami coba ilustrasikan sebagai berikut:

Anda harus pahami dulu yang dimaksud dengan koefisien regresi


parsial. Dalam hal ini biasanya lebih dikenal dengan istilah koefisien
Beta. Koefisien Beta itu seperti yang ada dalam contoh persamaan
regresi berikut: Y = Alpha + Beta1 X1 + Beta2 X2 + e.

Contoh Model Regresi dengan Masalah Multikolinearitas

Berikut kami contohkan sebuah model regresi yang terdapat


masalah multikolinearitas, yaitu dengan persamaan Y = Alpha +
Beta1 X1 + Beta2 X2 + Beta3 X1*X2 + e. (Dimana X1*X2 adalah
hasil perkalian antara X1 dengan X2).

Cara mendeteksi Multikolinearitas


Cara mendeteksi adanya Multikolinearitas di dalam model regresi
adalah dengan cara:

1. Melihat kekuatan korelasi antar variabel bebas. Jika


ada korelasiantar variabel bebas > 0,8 dapat diindikasikan
adanya multikolinearitas.
2. Melihat nilai standar error koefisien regresi parsial. Jika ada
nilai standar error > 1, maka dapat diindikasikan adanya
multikolinearitas.
3. Melihat rentang confidence interval. Jika rentang confidence
interval sangat lebar, maka dapat diindikasikan adanya
multikolinearitas.
4. Melihat nilai Condition Index dan eigenvalue. Jika nilai
condition index > 30 dan nilai eigenvalue < 0,001 dapat
diindikasikan adanya multikolinearitas.
5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF).
Jika nilai Tolerance < 0,1 dan VIF > 10 dapat diindikasikan
adanya multikolinearitas. Sebagian pakar menggunakan
batasan Tolerance < 0,2 dan VIF > 5 dalam menentukan
adanya multikolinearitas. Para pakar juga lebih banyak
menggunakan nilai Tolerance dan VIF dalam menentukan
adanya Multikolinearitas di dalam model regresi linear
berganda dibandingkan menggunakan parameter-parameter
yang lainnya. Hal ini juga dalam prakteknya
menggunakan SPSS, kita sudah disuguhkan dengan hasil
yang instant, dimana kita bisa langsung lihat nilai keduanya di
dalam output SPSS.
Kapan Bisa Dipertahankan
Ada kalanya kita tetap mempertahankan adanya multikolinearitas di
dalam model regresi. Yaitu jika kita berada dalam kondisi sebagai
berikut:
Nilai VIF tinggi hanya pada variabel kontrol, sedangkan pada
variabel interest, nilai VIF rendah.
Meskipun pada variabel kontrol nilai VIF tinggi, tetapi pada variabel
interest nilai VIF rendah, maka dapat diartikan bahwa nilai prediksi
dari variabel yang menjadi bahan perhatian dalam model tetap
dapat mengukur variabel terikat secara presisi. Mengapa bisa
seperti itu? kami akan ilustrasikan, misalkan model kita ada 3
variabel, yang menjadi variabel interest adalah variabel dummy,
yaitu Jenis Kelamin (Laki-laki dan perempuan). Sedangkan variabel
kontrol ada 2, yaitu penghasilan bulanan dan belanja bulanan.
Dalam hal ini, antara kedua variabel kontrol terdapat korelasi yang
kuat, sehingga VIF keduanya tinggi. Namun keduanya tidak
berkorelasi dengan Jenis Kelamin yang menjadi variabel interest.
Sehingga nilai VIF Jenis Kelamin rendah.

Nilai VIF tinggi yang disebabkan oleh sebab inklusi karena


hasil perkalian atau kuadrat di dalam model, namun kedua
variabel tersebut berkorelasi kuat terhadap hasil
perkaliannya.
Misalkan model kita terdapat variabel bebas X1, X2 dan X1*X2.
Dimana X1*X2 adalah hasil perkalian X1 dan X2. Kita ilustrasikan
dengan cara melakukan Standarisasi berdasarkan data yang
digunakan pada contoh di atas (Dataset Multikolinearitas).
Standarisasi kita lakukan pada semua variabel, baik X1, X2 dan Y
sebelum kita kalikan antara X1 dan X2. Setelah distandarisasi baik
X1 dan X2, selanjutnya variabel baru hasil standarisasi tersebut kita
kalikan, misal kita beri nama hasil standarisasi X1 menjadi SX1, X2
menjadi SX2 dan Y menjadi SY. Kita kalikan SX1 dengan SX2
menjadi SX1X2. Selanjutnya kita lakukan uji regresi linear dengan
model: SY = Alpha + Beta1 SX1 + Beta2 SX2 + Beta3 SX1X2 + e.

Dengan sumber data yang sama, kita lihat hasilnya di bawah ini:
Output Product Standarisasi
Perhatikan di atas: Nilai Standar error rendah, rentang lower dan
upper bound sempit, serta Signifikansi t parsial tetap signifikan.
Kalau kita telusuri nilai VIFnya, perhatikan di bawah ini:

VIF Product Standarisasi


Lihat bahwa nilai VIF tetap rendah, yaitu < 5 atau < 10.

Model regresi dengan variabel dummy dengan jumlah kategori


variabel dummy adalah tiga kategori atau lebih.
Dikatakan tidak akan menjadi masalah jika terdapat perbedaan
jumlah yang mencolok anggota sampel didalam kategori, dimana
yang menjadi kategori referensi adalah kategori yang jumlah
anggotanya sedikit. Sebagai contoh: jumlah sampel sebanyak 100
orang. Variabel Dummy adalah “Jenis Pekerjaan (Petani, Buruh,
PNS)”. Anggota kategori Petani 45 orang, Buruh 45 orang,
sedangkan PNS 10 orang. Selanjutnya yang menjadi referensi
adalah yang anggotanya sedikit, yaitu PNS. Hal ini menyebabkan
Variabel Dummy tidak akan berkorelasi terhadap variabel lainnya,
sebab yang menjadi referensi adalah yang jumlah anggotanya
paling sedikit.

Cara Mengatasi Multikolinearitas


Cara mengatasi multikolinearitas adalah dengan cara:

1. Jika jumlah variabel banyak, maka kita dapat


melakukan Analisis Faktor sebelum regresi. Setelah analisis
faktor, variabel baru yang terbentuk kita gunakan sebagai
variabel di dalam model regresi.
2. Dengan cara memilih salah satu diantara variabel bebas yang
berkorelasi kuat. Oleh karena itu, sebelumnya anda harus
mencari variabel yang nilai VIFnya tinggi dan nilai korelasinya
dengan variabel bebas lainnya kuat.
3. Dengan cara melakukan operasi matematis antar variabel
bebas yang berkorelasi kuat sehingga didapat variabel baru
hasil operasi tersebut yang kemudian dimasukkan ke dalam
model regresi sebagai perwakilan dari variabel yang menjadi
sumber operasi matematis tersebut.
4. Melakukan standarisasi terhadap variabel yang menjadi
penyebab inklusi perkalian antara variabel, dimana hasil
perkalian setelah standarisasi tersebut yang dimasukkan ke
dalam model bersama-sama dengan variabel yang sudah
distandarisasi.

Cara Mengatasi Multikolinearitas


Cara mengatasi multikolinearitas adalah dengan cara:

1. Jika jumlah variabel banyak, maka kita dapat melakukan Analisis


Faktor sebelum regresi. Setelah analisis faktor, variabel baru yang
terbentuk kita gunakan sebagai variabel di dalam model regresi.
2. Dengan cara memilih salah satu diantara variabel bebas yang
berkorelasi kuat. Oleh karena itu, sebelumnya anda harus mencari
variabel yang nilai VIFnya tinggi dan nilai korelasinya dengan
variabel bebas lainnya kuat.
3. Dengan cara melakukan operasi matematis antar variabel bebas
yang berkorelasi kuat sehingga didapat variabel baru hasil operasi
tersebut yang kemudian dimasukkan ke dalam model regresi sebagai
perwakilan dari variabel yang menjadi sumber operasi matematis
tersebut.
4. Melakukan standarisasi terhadap variabel yang menjadi penyebab
inklusi perkalian antara variabel, dimana hasil perkalian setelah
standarisasi tersebut yang dimasukkan ke dalam model bersama-
sama dengan variabel yang sudah distandarisasi.
Uji Multikolinearitas untuk mengetahui adanya hubungan antara
beberapa atau semua variabel yang menjelaskan dalam model
regresi. Jika dalam model terdapat multikolinearitas maka model
tersebut memiliki kesalahan standar yang besar sehingga koefisien
tidak dapat ditaksir dengan ketepatan yang tinggi. Salah satu cara
mendeteksi ada tidaknya multikolinearitas adalah dengan uji Farrar-
Glauber (perhitungan ratio-F untuk menguji lokasi
multikolinearitas). Hasil dari Fstatistik (Fi) dibandingkan dengan F
tabel. Kriteria pengujiannya adalah apabila F tabel > Fi maka
variabel bebas tersebut kolinear terhadap variabel lainnya.
Sebaliknya, jika F tabel < Fi, maka variabel bebas tersebut tidak
kolinear terhadap variabel bebas yang lain.

Uji Heteroskedastisitas untuk terjadinya gangguan yang muncul


dalam fungsi regresi yang mempunyai varian yang tidak sama
sehingga penaksir OLS tidak efisien baik dalam sampel kecil
maupun sampel besar (tapi masih tetap tidak bias dan konsisten).
Salah satu cara untuk mendeteksi masalah heteroskedastisitas adalah
dengan uji Park. Hasil perhitungan dilakukan uji t. Kriteria
pengujiannya adalah apabila t hitung < t tabel, maka antara variabel
bebas tidak terkena heteroskedastisitas terhadap nilai residual lain,
atau varians residual model regresi ini adalah homogen. Demikian
sebaliknya.

Uji Autokorelasi adalah untuk mengetahui adanya korelasi antara


variabel gangguan sehingga penaksir tidak lagi efisien baik dalam
model sampel kecil maupun dalam sampel besar. Salah satu cara
untuk menguji autokorelasi adalah dengan percobaan d (Durbin-
Watson). Hasil perhitungan dilakukan pembandingan dengan Ftabel.
Kriteria pengujiannya adalah apabila nilai durbin watson < F tabel,
maka diantara variabel bebas dalam persamaan regresi tidak ada
autokorelasi. Demikian sebalikny

Uji asumsi klasik merupakan uji asumsi yang tujuannya untuk memberikan
kepastian bahwa persamaan regresi yang didapatkan memiliki ketepatan dalam
estimasi, konsisten, dan tidak bias. Agar persamaan yang diestimasi dapat
menghasilkan estimator yang BLUE (Best Linear Unbiased Estimator), perlu
dilakukan uji asumsi klasik untuk memastikan bahwa model yang digunakan
bersifat robust. Penyimpangan yang terjadi terhadap berbagai asumsi klasik
menjadikan estimasi dari variabel yang diharapkan kurang tepat (Zaenuddin,
2015). Salah satu jenis uji asumsi klasik yang digunakan yaitu uji asumsi klasik
multikoleniaritas.

Menurut Hamdi (2014), uji asumsi klasik multikolinearitas adalah korelasi linear
yang sempurna atau eksak diantara variabel penjelas yang dimasukkan ke dalam
model. Uji multikolinearitas digunakan untuk mengetahui apakah di dalam model
regresi terjadi hubungan linear yang sempurna atau mendekati sempurna di
antara beberapa atau semua variabel bebas. Salah satu contoh, penelitian
mengenai perilaku variabel (Y) kinerja, dan dijelaskan oleh beberapa variabel
yang dimasukkan ke dalam model X1, X2, X3, dan X4, maka persamaan tertulis
:

Y = a + b1X1 + b2X2 + b3X3 + b4X4 + e

Jika antara X1, X2, X3, dan X4 ada yang memiliki korelasi tinggi maka hal
tersebut mengidentifikasi adanya masalah multikolinearitas.

Model yang baik tidak memiliki masalah multikolinearitas di mana semua


variabel-variabel bebas yang ada benar-benar bebas, tidak ada hubungan yang
erat antara satu dengan lainnya. Tidak adanya masalah kolineritas bebas berarti
masing-masing variabel bebas mempunyai kekuatan independent dalam
memengaruhi variabel terikat sehingga dapat menghasilkan estimator yang tepat
dalam peramalan.

Terdapat berbagai cara yang dapat digunakan untuk mendeteksi ada


atau tidaknya multikolinearitas dalam suatu model. Beberapa penelitian
menggunakan nilai Variance Inflation Factor (VIF) yang dihasilkan dari
program Statistical Product and Service Solutions (SPSS). Multikolinearitas
terjadi jika nilai VIF lebih dari 10 (Sarwoko dalam Zaenuddin, 2015). VIF
merupakan suatu cara mendeteksi multikolinearitas dengan melihat sejauh mana
sebuah variabel penjelas atau variabel lainnya di dalam persamaan regresi.
Semakin tinggi VIF suatu variabel tertentu, maka semakin tinggi variabel
koefisien estimasi pada variabel tersebut sehingga semakin berat dampak
multikolinearitas yang ditimbulkan (Zaenuddin, 2015).

1. Akibat Terjadinya Multikolinearitas

Jika antara X1 dan X2 terjadi multikolinearitas, misalnya secara sempurna


seluruh data menunjukkan bahwa X1= 2 X2, maka nilai b1 dan b2 tidak dapat
ditentukan hasilnya karena dari formula OLS (ordinary least square)
sebagaimana dibahas:

bi =

Akan menghasilkan bilangan pembagian,

bi =

Dengan demikian hasilnya tidak menentu. Demikian juga standar error (Sb1)
akan menjadi sangat besar. Jika multikolinearitas tidak begitu sempurna tetapi
tetap tinggi akibatnya adalah parameter estimasi b1 yang diperoleh tetap valid,
tetapi Sb1 akan bias membesar. Akibatnya uji t yang rumusnya berupa, t=b1/S1
akan cenderung kecil (Hamdi, 2014).

2. Konsekuensi Terjadinya Multikolinearitas yang Tidak Sempurna


Karena yang bias membesar, dalam kasus multikolinearitas adalah Sb maka
sepanjang uji t sudah signifikan maka multikolinearitas tidak perlu dirisaukan. Hal
ini disebabkan arah pembiasan Sb yang selalu membesar. Logikanya jika t = b
dibagi bilangan yang bias membesar masih signifikan, maka t sebenarnya lebih
signifikan lagi. Akan tetapi, jika t menjadi tidak signifikan, maka multikolinearitas
perlu ditangani (Hamdi, 2014).

3. Cara Menangani Terjadinya Multikolinearitas

Pada hakikatnya jika X1 dan X2 multikolinear, maka keduanya bersifat saling


mewakili dalam memengaruhi variabel tergantung (Y). Oleh karena itu,
penanganannya adalah dibuat persamaan yang terpisah.

Sebagai contoh, penelitian memiliki regresi sebagai berikut:

Y = a + b1X1 + b2X2 + b3X3 + b4X4 + e

Karena X1 dan X2 memiliki kolinearitas yang tingi, maka regresi dapat dibuat
menjdi dua model, yaitu:

Y = a + b1X1 + b3X3 + b4X4 + e, dan

Y = a + b2X2 + b3X3 + b4X4 + e

Pada prinsipnya kita harus mengestimasi impak X1 terhadap Y dan X2 terhadap


Y secara terpisah dan tidak dapat bersama – sama (Hamdi, 2014).

4. Cara Pengujian Multikolinearitas

Melihat dari contoh di atas, dapat digunakan korelasi matrik. Aturannya jika
korelasi antara X lebih besar dari korelasi X dan Y, maka variabel bebas tersebut
mengidentifikasi multikolinear (Hamdi, 2014).

Daftar Pustaka

Hamdi, Asep Saepul dan E. Baharuddin. 2014. Metode Penelitian Kuantitaf


Aplikasi Dalam Pendidikan. Yogyakarta: Deepublish.
Zaenuddin, Muhammad. 2015. Isu, Problematika, Dan Dinamika Perekonomian,
Dan Kebijakan Publik. Yogyakarta: Deepublish.

Uji Multikolinearitas untuk mengetahui adanya hubungan antara beberapa


atau semua variabel yang menjelaskan dalam model regresi. Jika dalam
model terdapat multikolinearitas maka model tersebut memiliki kesalahan
standar yang besar sehingga koefisien tidak dapat ditaksir dengan
ketepatan yang tinggi. Salah satu cara mendeteksi ada tidaknya
multikolinearitas adalah dengan uji Farrar-Glauber (perhitungan ratio-F
untuk menguji lokasi multikolinearitas). Hasil dari Fstatistik (Fi)
dibandingkan dengan F tabel. Kriteria pengujiannya adalah apabila F tabel
> Fi maka variabel bebas tersebut kolinear terhadap variabel lainnya.
Sebaliknya, jika F tabel < Fi, maka variabel bebas tersebut tidak kolinear
terhadap variabel bebas yang lain.

Uji Heteroskedastisitas untuk terjadinya gangguan yang muncul dalam


fungsi regresi yang mempunyai varian yang tidak sama sehingga penaksir
OLS tidak efisien baik dalam sampel kecil maupun sampel besar (tapi
masih tetap tidak bias dan konsisten). Salah satu cara untuk mendeteksi
masalah heteroskedastisitas adalah dengan uji Park. Hasil perhitungan
dilakukan uji t. Kriteria pengujiannya adalah apabila t hitung < t tabel,
maka antara variabel bebas tidak terkena heteroskedastisitas terhadap nilai
residual lain, atau varians residual model regresi ini adalah homogen.
Demikian sebaliknya.

Uji Autokorelasi adalah untuk mengetahui adanya korelasi antara variabel


gangguan sehingga penaksir tidak lagi efisien baik dalam model sampel
kecil maupun dalam sampel besar. Salah satu cara untuk menguji
autokorelasi adalah dengan percobaan d (Durbin-Watson). Hasil
perhitungan dilakukan pembandingan dengan Ftabel. Kriteria
pengujiannya adalah apabila nilai durbin watson < F tabel, maka diantara
variabel bebas dalam persamaan regresi tidak ada autokorelasi. Demikian
sebaliknya.

Anda mungkin juga menyukai