MULTIKOLINEARITAS
MENGGUNAKAN E VIEWS
PRAKTIKUM KOMPUTASI II
1. Metode pengumpulan data yang digunakan yaitu sampling pada kisaran nilai tertentudari
variabel independent dalam populasi.
2. Adanya constraint pada model atau populasi yang dijadikan sampel. Misalkan pad regresi
pengaruh income (X1) dan ukuran rumah (X2) terhadap konsumsi listrik (Y). Disini terdapat
kendala pada populasi yaitu keluarga dengan income tinggi umumnyamemiliki ukuran rumah
yang lebih besar dibandingkan keluarga dengan income rendah.
3. Spesifikasi model, misalkan dengan menambahkan variabel polynomial dalam modelregresi
ketika kisaran variabel X kecil. Selain itu, model dengan interaksi antarvariabelindependen
(X1*X2) juga dapat menyebabkan multikolinearitas.
4. Overdetermined model, hal ini terjadi ketika model regresi memiliki jumlah
variabelindependent yang lebih besar dari pada jumlah observasi.
Akibat terdapat multikolinearitas tinggi pada persamaan regresi menimbulkan beberapa akibat
menurut Ghozali (2013) yaitu:
1. Walaupun regresi OLS masih BLUE, tetapi hasil estimasi OLS memberikan nilai variandan
kovarian yang tinggi sehingga sulit memperoleh nilai estimasi yang tepat (precise).
2. Akibat point 1, nilai cofidence interval cenderung makin lebar sehingga lebih mudah untuk
tidak dapat menolak hipotesis nol.
3. Akibat point 2, nilai t hitung dari satu atau lebih koefisien variabel independent cenderungtidak
signifikan secara statistik.
4. Walaupun nilai t hitung satu atau lebih variabel independent tidak signifikan tetapi nilai
R2(Determinasi ganda) yang mengukur overall goodness-of-fit sangat tinggi.
5. Nilai estimator OLS dan standar error-nya sensitif terhadap perubahan kecil dalam data.
Nilai R2 (Determinasi Ganda) tinggi, tetapi hanya sedikit (bahkan tidak ada)
variabelindependent yang signifikan. Jika nilai R2 tinggi di atas 0,80, maka uji F pada
sebagianbesar kasus akan menolak hipotesis yang menyatakan bahwa koefisien slope
parsialsecara simultan sama dengan nol, tetapi uji t individual menunjukkan sangat
sedikitkoefisien slope parsial yang secara statistik berbeda dengan nol.
Koefisien antar dua variabel independent yang melebihi 0,80 dapat menjadi pertandabahwa
multikolinearitas merupakan masalah serius.
Auxilary regression. Multikolinearitas timbul karena satu atau lebih variabel
independentberkorelasi secara linier dengan variabel independent lainnya. Salah satu
caramenentukan variabel X mana yang berhubungan dengan variabel X lainnya adalahdengan
meregres setiap Xi terhadap variabel X sisanya dan menggitung nilai R2. Hubungan antara F
dan R2 dapat dituliskan dalam rumus sebagai berikut:
Variabel mengikuti distribusi F dengan derajad bebas (df) k-2 dan n-k+1, n adalah
ukuransampel, k jumlah variabel independen termasuk intersep, dan R2 x1, x2, x3 ...xk
Adalahkoefisien determinasi dalam regresi Xiterhadap variabel Xlainnya. Jika nilai F
hitung>nilaiF tabel, maka Xi berkorelasi tinggi dengan variabel X's lainnya. Tanpa menguji
semua nilai R2 auxilary, kita dapat menggunakan kriteria kasar Klein's rule of thumb
yangmenyatakan bahwa multikolinearitas menjadi bermasalah jika R2 yang diperoleh
dariauxilary regression lebih tinggi dari R2keseluruhan yang diperoleh dari meregres semua
variabel X's terhadap Y.
Klik Group statistik, pilih Correlation dan isikan variabel bebas seperti ini:
Hasil uji multikolinearitas menunjukkan tidak terdapat nilai korelasi yang tinggi antar
variabel bebas tidak melebihi 0,90 (Ghozali, 2013:83) sehingga disimpulkan tidak terdapat
multikolinearitas antar variabel bebas.