Anda di halaman 1dari 6

MULTIKOLINIERITAS

A. Pengertian Istilah multikolinearitas atau kolinearitas ganda diciptakan oleh Ragner Frish yang berarti, adanya hubungan linear yang sangat tinggi antar variabelvariabel bebas dalam model regresi. Dalam bentuk matriks, Multikolinearitas adalah suatu kondisi buruk atau ill condition dari matriks ( X X ) yaitu suatu kondisi yang tidak memenuhi asumsi klasik. Jika multikolinearitas terjadi antara dua variabel atau lebih dalam suatu persamaan regresi, maka nilai perkiraan koefisien dari variabel yang bersangkutan menjadi tak berhingga sehingga tidak mungkin lagi menduganya. Hal ini disebabkan ( X X ) menjadi singular atau X X mendekati nol Untuk hubungan yang terdiri dari k variabel, mencakup variabel bebas X1, X2, X3, ..., Xk (dimana X1 = 1 untuk semua observasi, guna mewakili titik potong atau intersept, jadi sebenarnya hanya ada k-1 variabel bebas yaitu X2, X3, ..., Xk dan satu variabel tak bebas Y, jadi seluruhnya ada k variabel. Y dan X2, X3, ..., Xk). Dalam multikolinearitas terdapat dua jenis hubungan yaitu hubungan linear yang sempurna (multikolinearitas sempurna) dan hubungan linear kurang

sempurna(multikolinearitas kurang sempurna). Hubungan linear yang sempurna terjadi apabila berlaku hubungan sebagai berikut :

j =1

X j = C1 X 1 + C2 X 2 + C3 X 3 + ... + Ck X k = 0

Untuk hubungan linear kurang sempurna, terjadi apabila berlaku hubungan sebagai berikut :

j =1

X j = C1 X 1 + C2 X 2 + C3 X 3 + ... + Ck X k + i = 0 Untuk mengetahui perbedaan antara hubungan linear yang sempurna dan

kurang sempurna adalah sebagai berikut :

a. Multikolinearitas sempurna

Misal C2 0, maka persamaan dapat kita tulis sebagai berikut : X 2i = C C C1 X 1i - 3 X 3i - ... - k X ki C2 C2 C2

yang menunjukkan bagaimana X2 berhubungan secara linear sempurna dengan sisa variabel lainnya secara keseluruhan atau bagaimana hubungan tersebut dapat diturunkan dari suatu kombinasi linear terhadap variabel lainnya. Dalam hal ini, koefisien korelasi antara X2 dan kombinasi linear yang berada disebelah kanan tanda sama dengan dari persamaan nilainya satu. b. Multikolinearitas kurang sempurna Misal C2 0, maka persamaan dapat kita tulis sebagai berikut :

X 2i = -

C1 C C 1 X 1i - 3 X 3i - ... - k X ki i C2 C2 C2 C2

yang menunjukkan bahwa X2 tidak berhubungan linear sempurna dengan sisa variabel lainnya, sebab masih tergantung kepada kesalahan pengganggu (i)

B. Akibat dari Multikolinearitas Dari penjelasan di atas telah diketahui definisi dari multikolinearitas, yaitu suatu kondisi buruk dari sebuah persamaan regresi linear karena tidak memenuhi asumsi klasik. Adapun akibat yang ditimbulkan dari adanya multikolinearitas adalah sebagai berikut : 1. Untuk multikolinearitas yang sempurna, perkiraan koefisien regresi tidak dapat ditentukan dan varian serta standar errornya tidak terhingga. Misal X1i dan X2i berhubungan sedemikian rupa X2i = X1i , dimana

= bilangan konstan.
= ( X X )-1 X Y , maka Dari
1 X 11 X X = X 21 M X k1 1 X 12 X 22 M X k2 1 X 13 X 23 M X k3 1 1 X 1n 1 L X 2 n 1 O M M L X kn 1 L L X 11 X 12 X 13 M X 1n X 21 L X k 1 X 22 L X k 2 X 23 L X k 3 M O M X 2 n L X kn

n X 1i = X 2i M X ki

X X X X
1i 1i 1i

2i

X X X X
2i 1i 2i

L
2i

L L O

X X X X X
ki

M X ki

1i

2i

X ki L

ki 1i 2i ki M 2 X ki

karena X2i = X1i, maka

n X 1i X X = X 1i M X ki

X X X
M

1i 2 2 1i

X 1i X 1i
M
2 2

L L L O

1i

2 X 1i

X X X X X
ki

1i

X ki

X 2i X ki L

1i ki 1i ki M 2 X ki

berdasarkan teori matriks, nilai determinan suatu matriks tidak berubah apabila suatu baris / kolom dikalikan dengan suatu bilangan konstan, kemudian baris / kolom lain dikurangi dengan baris / kolom tersebut. Dalam hal ini kalikan baris kedua dengan kemudian baris 3 dikurangi dengan baris 2, maka diperoleh:

n X 1i X X = 0 M X ki

X X
0 M

1i 2

X 1i X 1i 2
0 M

L L L O

1i

X X X
ki

1i

X ki

X 2i X ki L

1i ki 0 M 2 X ki

menurut teori matriks, apabila baris / kolom suatu matriks semua elemennya 0, maka determinan matriks yang bersangkutan nol. Oleh karena determinan ( XX ) = 0, maka X X adalah matriks singular dan karenanya koefisien regresi tidak dapat ditentukan.
) dan standar error menjadi tidak terhingga. serta varian (

2. Untuk multikolinearitas yang kurang sempurna, masih mungkin untuk


menghitung perkiraan koefisien regresi. Tetapi nilai variansi dan errornya besar. Misal untuk regresi linear berganda Yi = o + 1 X 1i + 2 X 2 i + .... + k X ki + i standar

= ( X X ) -1 X Y , maka Dari

n X 1i X X = X 2i M X ki

X X X X
1i 1i 1i

2i

X X X X
2i 1i 2i

L
2i

L L O

X X X X X
ki

M
X ki

1i

X
1i 2

2i

X ki L

1i ki 2i ki M 2 X ki

Karena hubungan linear yang kurang sempurna, kita ambil X2i = X1i + i

n X 1i X X = X 1i + i M X ki

X X X
M

X 1i + i X 1i
2 2

L L O L

1i 1i

2 1i

+ i L

X X X X X
ki

M
X ki

X
1i 2 1i

1i

X 1i X ki

1i ki 1i ki M 2 X ki

n X 1i = i M X ki

X X
0 M

X 1i + i L X 1i 2 i
M L L O L

X X X
ki

1i

X ki

X 1i X ki

1i ki 0 M 2 X ki

terlihat bahwa nilai dari ( X X ) -1 tergantung dari kesalahan pengganggu. Apabila kesalahan pengganggu sangat kecil atau sangat mendekati nol, maka berakibat tidak dapat ditentukan nilainya. Kemudian untuk variansi, karena nilai determinan dari ( X X ) kecil, maka nilai dari variansinya akan cenderung besar.

3. Oleh karena standar error dari koefisien regresi besar maka interval keyakinan untuk parameter semakin lebar. Akibatnya probabilita untuk menerima hipotesa, padahal hipotesa itu salah (kesalahan tipe II) menjadi semakin besar nilainya.

C. Cara Mendeteksi Multikolinearitas

Dari sebuah persamaan regresi linear yang dibuat berdasarkan data yang ada, kita belum tahu apakah model regresi tersebut mengalami multikolinearitas. Untuk itu perlu perlu Ada diketahui beberapa cara-cara cara untuk dalam mendeteksi ada adanya tidaknya

multikolinearitas.

mendeteksi

multikolinearitas, antara lain sebagai berikut : 1. Menganalisis koefisien korelasi sederhana antara variabel bebasnya Multikolinearitas dapat diduga dari tingginya nilai korelasi antara variabel bebasnya, disini kita dapat menduga kolinearitas antara variabel bebas dengan melihat nilai dari koefisien korelasi sederhana yang cukup tinggi (0,8 r 1,0). 2. Menggunakan Variation Inflation Factor (VIF) Variance Inflation Factor (VIF) adalah salah satu cara dalam mendeteksi adanya multikolinearitas. Hal ini diperoleh berdasarkan fakta bahwa kenaikan dari variansi tergantung dari 2 dan VIF itu sendiri. VIF dinyatakan dengan rumus :

(VIF ) j =

1 1 R2 j

dimana R 2 adalah koefisien determinasi dari variabel bebas Xj yang j diregresikan terhadap variabel bebas lainnya. Mulktikolinearitas dalam sebuah regresi dapat diketahui apabila nilai (VIF ) j lebih dari 5.

D. Cara Mengatasi Multikolinearitas


Masalah multikolinearitas dapat dihilangkan dengan menempuh beberapa cara, antara lain sebagai 1. Menambahkan data yang baru. Oleh karena adanya kolinearitas merupakan gambaran sampel , ada kemungkinan bahwa untuk sampel lainnya yang mencakup variabel-variabel yang sama persoalan multikolinearitas mungkin tidak seserius seperti sampel sebelumnya.

2. Menghilangkan satu atau beberapa variabel bebas yang dianggap memiliki korelasi tinggi dari model regresi. Pada permasalahan multikolinearitas yang serius, salah satu hal yang mudah untuk dilakukan ialah mengeluarkan salah satu variabel yang berkorelasi tinggi dengan variabel lainnya.

Anda mungkin juga menyukai