Anda di halaman 1dari 6

MULTIKOLINIERITAS

A. Pengertian
Istilah multikolinearitas atau kolinearitas ganda diciptakan oleh Ragner
Frish yang berarti, adanya hubungan linear yang sangat tinggi antar variabel-
variabel bebas dalam model regresi.
Dalam bentuk matriks, Multikolinearitas adalah suatu kondisi buruk atau
ill condition dari matriks ( X ′ X ) yaitu suatu kondisi yang tidak memenuhi asumsi

klasik. Jika multikolinearitas terjadi antara dua variabel atau lebih dalam suatu
persamaan regresi, maka nilai perkiraan koefisien dari variabel yang bersangkutan
menjadi tak berhingga sehingga tidak mungkin lagi menduganya. Hal ini
disebabkan ( X ′ X ) menjadi singular atau X ′ X mendekati nol

Untuk hubungan yang terdiri dari k variabel, mencakup variabel bebas X1,
X2, X3, ..., Xk (dimana X1 = 1 untuk semua observasi, guna mewakili titik potong
atau intersept, jadi sebenarnya hanya ada k-1 variabel bebas yaitu X2, X3, ..., Xk
dan satu variabel tak bebas Y, jadi seluruhnya ada k variabel. Y dan X2, X3, ..., Xk).
Dalam multikolinearitas terdapat dua jenis hubungan yaitu hubungan linear yang
sempurna (multikolinearitas sempurna) dan hubungan linear kurang
sempurna(multikolinearitas kurang sempurna). Hubungan linear yang sempurna
terjadi apabila berlaku hubungan sebagai berikut :
k

∑C
j =1
j X j = C1 X 1 + C2 X 2 + C3 X 3 + ... + Ck X k = 0

Untuk hubungan linear kurang sempurna, terjadi apabila berlaku hubungan


sebagai berikut :
k

∑C
j =1
j X j = C1 X 1 + C2 X 2 + C3 X 3 + ... + Ck X k + ε i = 0

Untuk mengetahui perbedaan antara hubungan linear yang sempurna dan


kurang sempurna adalah sebagai berikut :

a. Multikolinearitas sempurna
Misal C2 ≠ 0, maka persamaan dapat kita tulis sebagai berikut :
C1 C C
X 2i = - X 1i - 3 X 3i - ... - k X ki
C2 C2 C2
yang menunjukkan bagaimana X2 berhubungan secara linear sempurna dengan
sisa variabel lainnya secara keseluruhan atau bagaimana hubungan tersebut
dapat diturunkan dari suatu kombinasi linear terhadap variabel lainnya. Dalam
hal ini, koefisien korelasi antara X2 dan kombinasi linear yang berada
disebelah kanan tanda sama dengan dari persamaan nilainya satu.
b. Multikolinearitas kurang sempurna
Misal C2 ≠ 0, maka persamaan dapat kita tulis sebagai berikut :
C1 C C 1
X 2i = - X 1i - 3 X 3i - ... - k X ki - εi
C2 C2 C2 C2
yang menunjukkan bahwa X2 tidak berhubungan linear sempurna dengan sisa
variabel lainnya, sebab masih tergantung kepada kesalahan pengganggu (εi)

B. Akibat dari Multikolinearitas


Dari penjelasan di atas telah diketahui definisi dari multikolinearitas, yaitu
suatu kondisi buruk dari sebuah persamaan regresi linear karena tidak memenuhi
asumsi klasik. Adapun akibat yang ditimbulkan dari adanya multikolinearitas
adalah sebagai berikut :
1. Untuk multikolinearitas yang sempurna, perkiraan koefisien regresi tidak
dapat ditentukan dan varian serta standar errornya tidak terhingga.
Misal X1i dan X2i berhubungan sedemikian rupa X2i = λ X1i , dimana
λ = bilangan konstan.
Dari βˆ = ( X ′ X )-1 X ′Y , maka

 1 1 1 L 1  1 X 11 X 21 L X k 1 
X X 12 X 13 L X 1n  1 X 12 X 22 L X k 2 
 11
X ′ X =  X 21 X 22 X 23 L X 2 n  1 X 13 X 23 L X k 3 
  
 M M M O M  M M M O M 
 X k 1 X k2 X k3 L X kn  1 X 1n X 2 n L X kn 
 n

∑X 1i ∑X 2i L ∑X ki 

 ∑ X 1i ∑X ∑X X ∑X X
2
1i 1i 2i L 1i ki 

= ∑ X 2i ∑X X ∑X
2
L ∑X X

 1i 2i 2i 2i ki 
 M M M O M 
 
 ∑ X ki ∑X ∑X ∑ ki 
2
1i X ki 2i X ki L X

karena X2i = λ X1i, maka


 n

∑X 1i λ ∑ X 1i L ∑X 
ki

 ∑ X 1i ∑X λ ∑ X 1i ∑X X
2 2
1i L 1i ki 

X ′ X =  λ ∑ X 1i λ∑ X
2
λ 2 ∑ X 1i
2
L λ∑ X X

 1i 1i ki 
 M M M O M 
 
 ∑ X ki ∑X λ ∑ X 2i X ki L ∑ X ki 
2
1i X ki

berdasarkan teori matriks, nilai determinan suatu matriks tidak berubah


apabila suatu baris / kolom dikalikan dengan suatu bilangan konstan,
kemudian baris / kolom lain dikurangi dengan baris / kolom tersebut. Dalam
hal ini kalikan baris kedua dengan λ kemudian baris 3 dikurangi dengan baris
2, maka diperoleh:
 n

∑X 1i λ ∑ X 1i L ∑X 
ki

 ∑ X 1i ∑X λ ∑ X 1i 2 ∑X X
2
1i L 1i ki 

X ′X =  0 0 0 L 0 
 
 M M M O M 
 2 
 ∑ X ki ∑X 1i X ki λ ∑ X 2i X ki L ∑ X ki 
menurut teori matriks, apabila baris / kolom suatu matriks semua elemennya
0, maka determinan matriks yang bersangkutan nol. Oleh karena determinan
( X′X ) = 0, maka X ′ X adalah matriks singular dan karenanya koefisien
regresi tidak dapat ditentukan.

serta varian ( β̂ ) dan standar error menjadi tidak terhingga.

2. Untuk multikolinearitas yang kurang sempurna, masih mungkin untuk


menghitung perkiraan koefisien regresi. Tetapi nilai variansi dan standar
errornya besar.
Misal untuk regresi linear berganda Yi = β o + β1 X 1i + β 2 X 2 i + .... + β k X ki + ε i
Dari βˆ = ( X ′ X ) -1 X ′Y , maka

 n

∑X 1i ∑X 2i L ∑X ki 

 ∑ X 1i ∑X ∑X X ∑X X
2
1i 1i 2i L 1i ki 

X ′ X = ∑ X 2i ∑X X ∑X
2
L ∑X X

 1i 2i 2i 2i ki 
 M M M O M 
 
 ∑ X ki ∑X ∑X ∑ X ki 
2
1i X ki 2i X ki L

Karena hubungan linear yang kurang sempurna, kita ambil X2i = λ X1i + εi


n ∑X 1i λ ∑ X 1i + ∑ ε i L ∑X ki 

∑ X 1i ∑X λ ∑ X 1i ∑X X
2 2
 1i L 1i ki 

X ′ X = λ ∑ X 1i + ∑ ε i 
λ∑ X λ ∑X + ∑ εi L λ∑ X X
2 2 2
 1i 1i 1i ki 
 M M M O M 
 
∑ X ki ∑X λ ∑ X 1i X ki ∑ X ki 
2
 1i X ki L

 n

∑X 1i λ ∑ X 1i + ∑ ε i L ∑X 
ki

 ∑ X 1i ∑X λ ∑ X 1i 2 ∑X X
2
1i L 1i ki 

=  ∑ εi 0 ∑ εi L 0 
 
 M M M O M 
 2 
 ∑ X ki ∑X 1i X ki λ ∑ X 1i X ki L ∑ X ki 
terlihat bahwa nilai dari ( X ′ X ) -1 tergantung dari kesalahan pengganggu.
Apabila kesalahan pengganggu sangat kecil atau sangat mendekati nol, maka
berakibat tidak dapat ditentukan nilainya.
Kemudian untuk variansi, karena nilai determinan dari ( X ′ X ) kecil, maka
nilai dari variansinya akan cenderung besar.

3. Oleh karena standar error dari koefisien regresi besar maka interval keyakinan
untuk parameter semakin lebar. Akibatnya probabilita untuk menerima
hipotesa, padahal hipotesa itu salah (kesalahan tipe II) menjadi semakin besar
nilainya.

C. Cara Mendeteksi Multikolinearitas


Dari sebuah persamaan regresi linear yang dibuat berdasarkan data yang
ada, kita belum tahu apakah model regresi tersebut mengalami multikolinearitas.
Untuk itu perlu perlu diketahui cara-cara dalam mendeteksi adanya
multikolinearitas. Ada beberapa cara untuk mendeteksi ada tidaknya
multikolinearitas, antara lain sebagai berikut :
1. Menganalisis koefisien korelasi sederhana antara variabel bebasnya
Multikolinearitas dapat diduga dari tingginya nilai korelasi antara variabel
bebasnya, disini kita dapat menduga kolinearitas antara variabel bebas dengan
melihat nilai dari koefisien korelasi sederhana yang cukup tinggi
(0,8 ≤ r ≤1,0).
2. Menggunakan Variation Inflation Factor (VIF)
Variance Inflation Factor (VIF) adalah salah satu cara dalam mendeteksi
adanya multikolinearitas. Hal ini diperoleh berdasarkan fakta bahwa kenaikan
dari variansi tergantung dari σ 2 dan VIF itu sendiri. VIF dinyatakan dengan
rumus :
1
(VIF ) j =
1 − R 2j

dimana R 2j adalah koefisien determinasi dari variabel bebas Xj yang

diregresikan terhadap variabel bebas lainnya. Mulktikolinearitas dalam sebuah


regresi dapat diketahui apabila nilai (VIF ) j lebih dari 5.

D. Cara Mengatasi Multikolinearitas


Masalah multikolinearitas dapat dihilangkan dengan menempuh beberapa
cara, antara lain sebagai
1. Menambahkan data yang baru.
Oleh karena adanya kolinearitas merupakan gambaran sampel , ada
kemungkinan bahwa untuk sampel lainnya yang mencakup variabel-variabel
yang sama persoalan multikolinearitas mungkin tidak seserius seperti sampel
sebelumnya.
2. Menghilangkan satu atau beberapa variabel bebas yang dianggap memiliki
korelasi tinggi dari model regresi.
Pada permasalahan multikolinearitas yang serius, salah satu hal yang mudah
untuk dilakukan ialah mengeluarkan salah satu variabel yang berkorelasi
tinggi dengan variabel lainnya.

Anda mungkin juga menyukai