Anda di halaman 1dari 3

MULTIKOLINIERITAS

        Sebagaimana dikemukakan diatas bahwa salah satu asumsi regresi linier Klasik adalah tidak
adanya multikolinieritas sempurna (no perfect multicolinearity). Istilah multikolinieritas
diperkenalkan oleh Ragnar Frisch tahun 1934 (Gujarati, 1995). Menurut Frisch, suatu model
regresi dikatakan terkena multikonieritas bila terjadi hubungan linier yang perfect dan exact
diantara beberapa atau semua variabel bebas dari suatu model regresi. Akibatnya akan kesulitan
untuk melihat pengaruh variabel penjelas terhadap variabel yang dijelaskan.

a. Penyebab munculnya masalah multikolinieritas

Model regresi linier Klasik mengasumsikan bahwa tidak ada masalah multikolinieritas diantara
variabel X. Alasannya adalah jika terjadi multikolinieritas sempurna maka koefisien regresi dari
variabel X tidak bisa ditentukan (undeterminate) dan kesalahan baku (standar error) variabel X
menjadi tak terhingga. Sebaliknya jika terjadi multikolinieritas tak sempurna maka koefisien regresi
dapat ditentukan namun kesalahan baku variabel X sangat besar sehingga koefisien-koefisien
variabel X tidak dapat diestimasi secara akurat.

Ada beberapa sumber yang dapat menyebabkan timbulnya multikolinieritas dalam hasil estimasi
model regresi (lihat Sumodiningrat (1994), Gujarati (1995:323)), yaitu.

1. Metode pengumpulan data yang dipakai (the data collection method employed)
2. Kendala dalam model atau populasi yang menjadi sampel (constraint on the model or in the
population beeing sampled). Misalnya peneliti ingin mengestimasi fungsi konsumsi elektronik
sebagai fungsi dari pendapatan (X2) dan luas rumah (X3). Dalam hal ini ukuran luas
merupakan kendala fisik karena biasanya keluarga dengan tingkat pendapatan yang lebih
tinggi umumnya memiliki rumah yang lebih besar dibanding keluarga yang berpendapatan
rendah.
3. Spesifikasi model. Hal ini terjadi karena seorang peneliti memasukkan variabel penjelas yang
seharusnya dikeluarkan dari model empiris atau sebaliknya.
4. Model yang berlebihan (an overdetermined model). Hal ini terjadi ketika model empiris
(jumlah variabel penjelas) yang digunakan melebihi jumlah data.

b. Cara mendeteksi masalah multikolinieritas dalam model empiris

Masalah multikolinieritas sebenarnya tidak dapat dideteksi karena merupakan masalah degree dan
bukan masalah kind. Tetapi bila masalah multikolinieritas adalah masalah sampel maka ada
beberapa kaidah (rule of thumb) yang bisa digunakan untuk mendeteksi ada tidaknya
multikolinieritas dalam suatu model empiris, yaitu sebagai berikut :

a. Nilai R2 yang dihasilkan dari hasil estimasi model empiris sangat tinggi, tetapi tingkat
signifikan variabel bebas berdasarkan uji t statistik sangat kecil bahkan tidak ada variabel
bebas yang signifikan (high R2 but few significant t ratios). Jika R2 tinggi misalnya 0,90 maka
nilai uji F akan menolak hipotesis nol karena nilai koefisien slope parsial secara simultan
sebenarnya sama dengan nol.
b. Menggunakan korelasi parsial (examination of partial correlations). Metode ini muncul
berkaitan dengan kelemahan dari korelasi derajat nol. Farrar dan Glauber (1977)
menyarankan supaya menggunakan metode koefisien korelasi parsial.
c. Menggunakan regresi bantuan (subsidiary or auxiliary regression). Metode ini juga
dikemukakan oleh Farrar dan Glauber. Metode ini dilakukan karena diduga bahwa
multikolinieritas timbul karena satu atau lebih variabel penjelas (Xi) merupakan kombinasi
linier yang pasti (exact) atau mendekati pasti dari variabel penjelas X lainnya. Untuk itu
Farrar dan Glauber menyarankan supaya dilakukan regresi bantuan atau regresi parsial
antar variabel penjelas. Setelah dilakukan estimasi perhatikan nilai R2 yang ditemukan
kemudian hitunglah nilai F hitung dengan menggunakan rumus :
Dimana :
R2xt = nilai R2 dari hasil estimasi regresi parsial variabel penjelas.
n = jumlah data (observasi)
k = jumlah variabel penjelas

Rule of thumb yang digunakan adalah bila nilai F hitung > F tabel, berarti Xi berkorelasi
dengan variabel penjelas X lainnya, dan sebaliknya. Untuk lebih jelasnya perhatikan
contoh pada tabel 1 berikut ini :

Tabel 1
Hasil Perhitungan Nilai F-hitung

Nilai R2 Nilai F hitung

R2 LPDRB,IHK = 0,1053 3,2323

R2 IHK, LPDRB = 0,1053 3,2323

Keterangan - jumlah data = 27


: - jumlah variabel penjelas = 1
- Nilai Ftabel : a = 5% = 4,26; a = 10 % = 2,93

Dari hasil perhitungan dapat disimpulkan bahwa F hitung pada a = 5 % tidak ditemukan
adanya multikolinieritas antar variabel penjelas karena nilai F hitung < nilai F tabel,
sedangkan pada a = 10 % nilai F hitung > nilai F tabel sehingga ada multikolinieritas
antar variabel penjelas.

Selain menggunakan F hitung, menurut Farrar dan Glauber dapat pula digunakan nilai t
hitung untuk melihat ada tidaknya multikolinieritas antar variabel penjelas yaitu dengan
rumus sebagai berikut :

Dimana :
R2xt = nilai R2 dari hasil estimasi regresi parsial variabel penjelas
Rxt = nilai koefisien regresi parsial variabel penjelas
n = jumlah data
k = jumlah variabel penjelas.

Rule of thumb yang digunakan yaitu bila nilai t hitung > t tabel maka Xi berkorelasi
dengan variabel penjelas X lainnya, dan sebaliknya. Untuk lebih jelasnya lihat contoh
pada tabel 2.

Dari hasil perhitungan t hitung sebagaimana yang terlihat pada tabel 2 dapat
disimpulkan bahwa pada a = 5% nilai t hitung < nilai t tabel sehingga tidak ditemukan
adanya multikolinieritas antar variabel penjelas.

Tabel 2
Hasil Perhitungan Nilai t Hitung
Nilai R2 Nilai R Nilai t hitung

R2 LPDRB,IHK = 0,1053 0,3245 1,7493

R2 IHK, LPDRB = 0,1053 0,3245 1,7493

Keterangan Nilai t a = 5% = 1,711; a = 10 % =


tabel : 1,318

c. Cara mengatasi masalah multikolinieritas dalam model empiris

Ada beberapa metode atau cara yang dapat digunakan untuk mangatasi masalah multikolinieritas.
Salah satu metode yang dapat digunakan adalah metode Koutsoyianis (1977). Penggunaan
metode ini hampir sama dengan metode ketika memilih variabel empiris. Bila dalam metode
memilih variabel untuk memasukkan ataupun mengeluarkan variabel kriteria yang digunakan
adalah berdasarkan rumus kriteria statistika dan nilai t statistik maka dalam metode Koutsoyianis
ini kriteria yang diajukan adalah berdasarkan nilai R2 dan nilai uji statistik t statistik variabel.

Setelah dilakukan percobaan dengan memasukkan variabel bebas maka hasilnya dapat
diklasifikasikan dalam 3 (tiga) macam, yaitu useful independent variable, superfluous independent
variable dan detrimental independent variable.

Suatu variabel bebas dikatakan berguna (useful independent variable) jika variabel bebas yang
baru dimasukkan kedalam model coba-coba yang mengakibatkan perbaikan nilai R2 tanpa
menyebabkan nilai koefisien-koefisien regresi variabel bebas menjadi tidak signifikan (insignificant)
dan mempunyai tanda koefisien yang salah.

Suatu variabel bebas dikatakan superfluous independent variable jika variabel bebas yang baru
dimasukkan ke dalam model coba-coba tidak mengakibatkan perbaikan nilai R2 dan tingkat
signifikansi koefisien-koefisien regresi variabel bebas.

    Suatu variabel bebas dikatakan detrimental independent variable apabila variabel bebas yang
baru dimasukkan ke dalam model coba-coba tidak mengakibatkan perbaikan nilai R2 dan justru
menyebabkan berubahnya nilai koefisien-koefisien regresi variabel bebas dan merubah tanda
koefisien sehingga berdasarkan teori yang terkait tidak dapat diterima

Dengan demikian dapat disimpulkan bahwa hasil regresi yang baik adalah yang menjamin tidak
adanya multikolinieritas dalam model empiris yang digunakan.

[ BACK ] [ HOME ]

Anda mungkin juga menyukai