Anda di halaman 1dari 5

EKONOMETRIKA

MULTIKOLINIERITAS

Oleh

MUHAMMAD AZIZUL HAKIM ( 169940 )

PROGRAM STUDI MANAGEMENT BISNIS

SEKOLAH TINGGI ILMU EKONOMI MANDALA

JEMBER

2017
MULTIKOLINIERITAS

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau


hubungan kuat antara dua variabel bebas atau lebih dalam sebuah model regresi berganda. Model
regresi yang dimaksud dalam hal ini antara lain: regresi linear, regresi logistik, regresi data panel
Multikolinearitas merupakan salah satu uji dari uji asumsi klasik yang merupakan
pengujian yang dilakukan untuk mengidentifikasi suatu model regresi dapat dikatakan baik atau
tidak. Secara konsep, multikolinearitas adalah situasi dimana terdapat dua variabel yang saling
berkorelasi. Adanya hubungan diantara variabel bebas adalah hal yang tak bisa dihindari dan
memang diperlukan agar regresi yang diperoleh bersifat valid. Namun, hubungan yang bersifat
linier harus dihindari karena akan menimbulkan gagal estimasi (multikolinearitas sempurna) atau
sulit dalam inferensi (multikolinearitas tidak sempurna).
Uji Multikolinieritas dilakukan untuk melihat apakah ada keterkaitan antara hubungan
yang sempurna antara variable-variabel independen. Jika didalam pengujian ternyata didapatkan
sebuah kesimpulan bahwa antara variable independent tersebut saling terikat, maka pengujian
tidak dapat dilakukan kedalam tahapan selanjutnya yang disebabkan oleh tidak dapat
ditentukannya koefisien regresi variable tersebut tidak dapat ditentukan dan juga nilai standard
errornya menjadi tak terhingga.
Analisis regresi mempelajari bentuk hubungan antara satu atau lebih
peubah/variabel bebas (X) dengan satu peubah tak bebas (Y). dalam penelitian peubah bebas (
X) biasanya peubah yang ditentukan oleh peneliti secara bebas misalnya dosis obat, lama
penyimpanan, kadar zat pengawet, umur ternak dan sebagainya.
Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti halnya
regresi linear atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS) regression.
Perbedaannya adalah pada regresi logistik, peneliti memprediksi variabel terikat yang berskala
dikotomi. Skala dikotomi yang dimaksud adalah skala data nominal dengan dua kategori,
misalnya: Ya dan Tidak, Baik dan Buruk atau Tinggi dan Rendah.
Analisis regresi data panel adalah analisis regresi dengan struktur data yang merupakan
data panel. Umumnya pendugaan parameter dalam analisis regresi dengan data cross
section dilakukan menggunakan pendugaan metode kuadrat terkecil atau disebut Ordinary Least
Square (OLS).
Dalam situasi terjadi multikolinearitas dalam sebuah model regresi berganda, maka nilai
koefisien beta dari sebuah variabel bebas atau variabel predictor dapat berubah secara dramatis
apabila ada penambahan atau pengurangan variabel bebas di dalam model. Oleh karena itu,
multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun mempengaruhi
nilai prediksi dari sebuah variabel bebas. Nilai prediksi sebuah variabel bebas disini adalah
koefisien beta. Oleh karena itu, sering kali kita bisa mendeteksi adanya multikolinearitas dengan
adanya nilai standar error yang besar dari sebuah variabel bebas dalam model regresi.
Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi
multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan variabel lainnya di dalam
model, kekuatan prediksinya tidak handal dan tidak stabil. Dan pengertian multikolinearitas
adalah sesungguhnya terletak pada ada atau tidak adanya korelasi antar variabel bebas.
Penyebab multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua
variabel bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun penyebab lainnya yang
dapat menyebabkan hal tersebut secara tidak langsung adalah, antara lain:
1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan lebih
beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di dalam model.
2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas lainnya
di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model regresi anda, ada
variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam situasi tersebut bisa
dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta kolinearitas antara X2
dengan X1*X2.
3. Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha + Beta1 X1 +
Beta2 X1*5 + Beta3 X3 + e.
Dampak dari multikolinearitas antara lain:
1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar
errornya besar.
2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan drastis
pada nilai koefisien regresi partial.
3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai koefisien
regresi parsial variabel lainnya.
4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk menolak
hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut terdapat
multikolinearitas.
Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan cara:
1. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel bebas >
0,8 dapat diindikasikan adanya multikolinearitas.
2. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error > 1, maka
dapat diindikasikan adanya multikolinearitas.
3. Melihat rentang confidence interval. Jika rentang confidence interval sangat lebar, maka
dapat diindikasikan adanya multikolinearitas.
4. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan nilai
eigenvalue < 0,001 dapat diindikasikan adanya multikolinearitas.
5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance < 0,1
dan VIF > 10 dapat diindikasikan adanya multikolinearitas. Sebagian pakar
menggunakan batasan Tolerance < 0,2 dan VIF > 5 dalam menentukan adanya
multikolinearitas. Para pakar juga lebih banyak menggunakan nilai Tolerance dan VIF
dalam menentukan adanya Multikolinearitas di dalam model regresi linear berganda
dibandingkan menggunakan parameter-parameter yang lainnya. Hal ini juga dalam
prakteknya menggunakan SPSS, kita sudah disuguhkan dengan hasil yang instant,
dimana kita bisa langsung lihat nilai keduanya di dalam output SPSS.
Cara mengatasi multikolinearitas adalah dengan cara:
1. Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktorsebelum regresi.
Setelah analisis faktor, variabel baru yang terbentuk kita gunakan sebagai variabel di
dalam model regresi.
2. Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi kuat. Oleh
karena itu, sebelumnya anda harus mencari variabel yang nilai VIFnya tinggi dan nilai
korelasinya dengan variabel bebas lainnya kuat.
3. Dengan cara melakukan operasi matematis antar variabel bebas yang berkorelasi kuat
sehingga didapat variabel baru hasil operasi tersebut yang kemudian dimasukkan ke
dalam model regresi sebagai perwakilan dari variabel yang menjadi sumber operasi
matematis tersebut.
4. Melakukan standarisasi terhadap variabel yang menjadi penyebab inklusi perkalian antara
variabel, dimana hasil perkalian setelah standarisasi tersebut yang dimasukkan ke dalam
model bersama-sama dengan variabel yang sudah distandarisasi.

Anda mungkin juga menyukai