Anda di halaman 1dari 4

Multikolinearitas atau kolinearitas ganda pertama kali dikemukakan oleh Ragnan Frisch dalam bukunya

yang berjudul "Statistical Conflunce Analysis by Means Complete Regression Systems" pada tahun 1934
Variabel ekonomi memiliki kecenderungan bergerak secara bersama-sama sepanjang waktu.
Kecenderungan faktor-faktor dalam deret waktu dapat menjadi penyebab terjadinya multikolinearitas.
Menurut Frisch, suatu model regresi dikatakan terkena multikolinicaritas bila terjadi hubungan linier
yang sempurna (perfect) atau pasti (exact) di antara beberapa atau semua variabel bebas dari suatu
model regresi. Akibatnya akan kesulitan untuk dapat melihat pengaruh variabel penjelas terhadap
variabel yang dijelaskan. Multikolinearitas adalah adanya hubungan linear yang sempurna di antara
beberapa atau semua variabel bebas dalam model regresi. Penyebab multikolinearitas adalah adanya
korelasi atau hubungan yang kuat antara dua variabel bebas atau lebih, dalam sebuah model regresi
berganda. Bedasarkan hubungan yang terjadi antara variabel- variabel bebas, multikolinearitas
dibedakan menjadi dua:

a. Multikolinearitas Sempurna Hubungan lincar yang sempurna terjadi apabila berlaku hubungan
sebagai berikut:

dimana AAA..... seluruhnya tidak sama dengan nol 10.4-1.2.3.k), Untuk mengetahui multikolinearitas
sempurna dimisalkan 70, sehingga persamaan X- dapat ditulis sebagai berikut:

Persamaan tersebut menunjukkan bagaimana X: berhubungan secara linear sempurna dengan sisa
variabel lainnya.

b. Multikolinearitas kurang sempurna

Multikolinearitas kurang sempurna terjadi jika berlaku suatu hubungan sebagai

berikut:

dimana & adalah galat sisa dengan syarat galat yang saling bebas dan menyebar

normal N (0,7), untuk mengetahui adanya multikolinearitas tidak sempurna, maka dimisalkan 40,
sehingga persamaan X dapat ditulis sebagai berikut:

yang menunjukkan bahwa Xa tidak berhubungan linear sempurna dengan sisa variabel lainnya, sebab
tergantung pada &

2.3 Cara Mendeteksi Multikolinearitas


Ada beberapa cara untuk mengetahui ada tidaknya multikolinearitas,

diantaranya:

a. Nilai korelasi (korelasi antar variabel bebas)

Uji multikolinearitas bertujuan untuk menguji apakah ditemukan adanya korelasi antar variabel bebas
(independen) pada model. Asumsi multikolinearitas

mengharuskan tidak adanya korelasi yang sempurna atau besar diantara variabel- variabel independen.
Analisis koefisien korelasi bertujuan untuk mempelajari apakah ada hubungan antara dua variabel.
Koefisien korelasi antar variabel independen haruslah lemah (dibawah 0.5). Jika korelasi kuat, terjadilah
problem multikolinearitas.

b. Variance Inflation Faktor (VIF) dan Tolerance

Metode untuk menguji adanya multikolinearitas dapat dilihat pada tolerance value atau variance
inflation factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen manakah yang
dijelaskan oleh variabel independen lainnya.. Tolerance mengukur variabilitas variabel independen yang
terpilih yang tidak dijelaskan oleh variabel independen lainnya. Nilai tolerance yang rendah sama
dengan nilai VIF yang tinggi. Nilai VIF dapat diperoleh dengan rumus berikut:

VIF Tolerance

Batas tolerance value adalah 0,10 atau nilai VIF adalah 10. Jika VIF > 10 dan milai tolerance 0.10, maka
tejadi multikolinearitas tinggi antar variabel bebas dengan variable bebas lainnya. Jika VIF < 10 dan nilai
tolerance> 0.10, maka dapat diartikan tidak terdapat multikolinearitas pada penelitian tersebut. Regresi
yang baik memiliki VIF disekitar angka (satu) dan mempunyai angka Tolerance mendekati 1.
Analisis regresi merupakan suatu alat statistik yang seringkali digunakan sebagai peramalan suatu data
untuk masa yang akan datang. Analisis regresi digunakan untuk membangun suatu model matematis
yang dapat digunakan untuk meramalkan atau menduga nilai variabel Y (variabel terikat/ dependen/
respon) berdasarkan pada nilai-nilai variabel X (variabel bebas independen/ prediktor). Model regresi
yang paling sederhana adalah regresi linear sederhana dimana dalam model regresi tersebut hanya
terdapat satu variabel bebas saja. Sedangkan jika variabel bebas yang digunakan dalam model regresi
lebih dari satu maka disebut regresi linear berganda.

Analisis regresi linear berganda lebih kompleks dari pada analisis regresi linear sederhana karena lebih
banyak melibatkan variabel yang dapat menimbulkan permasalahan statistik yang berbeda. Salah satu
permasalahan yang sering muncul dalam analisis regresi linear berganda adalah terjadinya
multikolinearitas.

Dampak dari multikolinearitas ini dapat mengakibatkan koefisien regresi yang dihasilkan oleh suatu
analisis regresi linear menjadi sangat lemah sehingga tidak dapat memberikan hasil analisis yang
mewakili sifat atau pengaruh dari variabel bebas yang bersangkutan (Montgomery dan Hines, 1990).
Dalam banyak hal masalah multikolincaritas dapat menyebabkan uji T menjadi tidak signifikan. Padahal
jika masing-masing variabel bebas diregresikan secara terpisah dengan variabel tak bebas (simple
regression), uji T menunjukkan hasil yang signifikan. Hal tersebut sering kali membuat pusing para
peneliti karena hasil analisis yang dilakukan pada regresi lincar berganda dan regresi linear sederhana
tidaklah sejalan atau bahkan sangat bertentangan.

Ada beberapa prosedur yang dapat digunakan untuk mengatasi masalah multikolinearitas. Akan tetapi
pada prakteknya, prosedur tersebut sangat tergantung pada kondisi penelitian. Oleh karena itu, perlu
adanya solusi yang memberikan efek penanggulangan yang besar pada masalah multikolinearitas dalam
analisis regresi linear.

b. Multikolinearitas kurang sempurna

Multikolinearitas kurang sempurna terjadi jika berlaku suatu hubungan sebagai


berikut:

Σ) =jAX = AqX₁ + Az X₂+~+AjXj+6=0

dimana & adalah galat sisa dengan syarat galat yang saling bebas dan menyebar normal - N (0,0), untuk
mengetahui adanya multikolinearitas tidak sempurna, maka dimisalkan 240, sehingga persamaan X
dapat ditulis sebagai berikut:

yang menunjukkan bahwa X tidak berhubungan linear sempurna dengan sisa variabel lainnya, sebab
tergantung pada c

Anda mungkin juga menyukai