Anda di halaman 1dari 10

Kolinearitas Ganda (multicollinearity)

Sebelum melakukan uji statistic terhadap hasil olahan regresi terlebih dahulu dilakukan uji
asumsi klasik sebagai dasar analisis regresi. Pengujian asumsi klasik dimaksudkan agar
estimator-estimator yang diperoleh dengan metode Ordinary Least Square (OLS) memenuhi
syarat Best Linier Unbiased Estimator (BLUE). Pengujian asumsi klasik yang dilakukan
adalah multicollinearity dan autocorrelation, hal ini karena data yang digunakan berupa data
time-series (Gujarati, 1997).
2.1.1 Pengertian Multikolinearitas
Istilah multikolinearitas atau kolinearitas ganda diciptakan oleh Ragner Frish yang berarti,
adanya hubungan linear yang sangat tinggi antar variabel variabel bebas dalam model
regresi. Multikolinearitas juga dapat diasumsikan sebagai kondisi buruk dari sebuah
persamaan regresi linear karena tidak memenuhi asumsi klasik. Sedangkan uji
multikolinearitas dilakukan untuk melihat ada atau tidaknya korelasi yang tinggi antara
variabel-variabel bebas dalam suatu model regresi linier berganda. Jika terdapat korelasi yang
tinggi antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap
variabel terikatnya menjadi terganggu. Namun dalam perkembangannya, multikolinearitas
memiliki pengertian yang lebih luas sebagai berikut :
1. Multikolinearitas sempurna
Merupakan hubungan linear yang sempurna antara variabel satu dengan sisa variabel lainnya
secara keseluruhan atau bagaimana hubungan tersebut dapat diturunkan dari suatu kombinasi
linear terhadap variabel lainnya.
1. Multikolinearitas tidak sempurna
Merupakan hubungan linear tidak sempurna dengan sisa variabel lainnya diakibatkan oleh
masih adanya ketergantungan terhadap kesalahan pengganggu.
Pengertian lebih lanjut mengenai multikolinearitas dapat dijelaskan dalam contoh sebagai
berikut. Sebagai ilustrasi, terdapat model regresi yang memiliki variabel bebas yaitu motivasi,
kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika
sedrhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi,
kepemimpinan, dan kepuasan kerja terhadap kinerja. Jadi tidak diperbolehkan terdapat
korelasi yang tinggi antara motivasi dengan kepuasan kerja, motivasi dengan kepemimpinan,
atau kepemimpinan dengan kepuasan kerja
2. Kolinearitas Ganda (multicollinearity)

Apabila kita menggunakan model regresi Y = B0 + B1X1 + B2X2 + + BkXk + e, dalam hal ini
kita
mempunyai
asumsi
bahwa
X1,
X2,
X3,
Xk

sebagai variable-variabel bebas tidak berkorelasi satu sama lain. Seandainya variable-variabel
bebas tersebut berkorelasi satu sama lain, maka dikatakan terjadi kolinearitas berganda
(multicollinearity). Ada kemungkinan terjadi 2 variabel atau lebih mempunyai hubungan
yang sangat kuat sehingga pengaruh masing-masing variable tersebut terhadap Y sukar untuk
dibedakan (Supranto, 2001).
MULTIKOLINEARITAS DALAM REGRESI
Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi
antara masing-masing variabel independen dalam model regresi. Multikolinearitas biasanya
terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model
regresi. Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana
yang hanya melibatkan satu variabel independen.
Beberapa cara mengindentifikasi adanya multinolinieritas pada model regresi, diantaranya
adalah
1. Jika nilai regresi menunjukkan nilai R2 yang tinggi dan F statistik yang sangat
signifikan (goodness of fit terpenuhi), namun sebagian besar variabel bebas tidak
signifikan pengaruhnya (t hitung kecil)
2. Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau lebih variabel bebas
dalam model
3. Mencari nilai Condition Index (CI). Condition indek yang bernilai lebih dari 30
mengindentifikasikan adanya multikolineritas
4. Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL),
Eigenvalue, dan yang paling umum digunakan adalah Varians Inflation Factor (VIF).
nilai VIF > 10 mengindentifikasi adanya multikolinieritas.
5. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada
variabel yang diamati.
6. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang
seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan
nilai negatif.
Beberapa dampak multikolineritas yang serius pada sebuah regresi, akan berdampak pada :
1. Varian besar (dari takasiran OLS)
2. Interval kepercayaan lebar (varian besar - Standar Error besar - interval kepercayaan
lebar)
3. Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih kecil sehingga variabel
bebas tersebut menjadi tidak signifikan pengaruhnya. pengaruh lebih lanjutnya adalah

bahwa koefisien regresi yang dihasilkan tidak mencerminkan nilai yang sebenarnya
dimana sebagian koefisien cenderung over estimate dan yang lain under estimate
4. Terkadang taksiran koefisien yang didapat akan mempunyai nilai yang tidak sesuai
dengan substansi, sehingga dapat menyesatkan interpretasi.
Hal-hal yang perlu dilakukan bila terjadi multikolinearitas adalah
1. Transpormasi dara (misalnya dengan logaritma natural)
2. Mengeluarkan variabel yang berkorelasi dalam model
3. Mencari data tambahan

Multikolinearitas atau Kolinearitas Ganda (Multicollinearity) adalah adanya hubungan


linear antara peubah bebas X dalam Model Regresi Ganda[1]Jika hubungan linear antar
peubah bebas X dalam Model Regresi Ganda adalah korelasi sempurna maka peubah-peubah
tersebut berkolinearitas ganda sempurna (Bahasa Inggris : perfect multicollinearity).[1]
Sebagai ilustrasi, misalnya dalam menduga faktor-faktor yang memengaruhi konsumsi per
tahun dari suatu rumah tangga, dengan model regresi ganda sebagai berikut :
Y=0+1X1+2X2+E
dimana :
X1 : pendapatan per tahun dari rumah tangga
X2 : pendapatan per bulan dari rumah tangga
Peubah X1 dan X2 berkolinearitas sempurna karena X1 = 12X2. Jika kedua peubah ini
dimasukkan ke dalam model regresi, akan timbul masalah Kolinearitas Sempurna, yang tidak
mungkin diperoleh pendugaan koefisien parameter regresinya.[1]
Jika tujuan pemodelan hanya untuk peramalan nilai Y (peubah respon) dan tidak mengkaji
hubungan atau pengaruh antara peubah bebas (X) dengan peubah respon (Y) maka masalah
multikolinearitas bukan masalah yang serius.[1] Seperti jika menggunakan Model ARIMA
dalam peramalan,[2] karena korelasi antara dua parameter selalu tinggi, meskipun melibatkan
data sampel dengan jumlah yang besar.[2] Masalah multikolinearitas menjadi serius apabila
digunakan unruk mengkaji hubungan antara peubah bebas (X) dengan peubah respon (Y)
karena simpangan baku koefisiennya regresinya tidak siginifikan sehingga sulit memisahkan
pengaruh dari masing-masing peubah bebas.[1]
Uji multikolinearitas
Uji multikolinearitas digunakan untuk mengetahui ada atau tidaknya penyimpangan
asumsi klasik multikolinearitas yaitu adanya hubungan linear antar variabel independen
dalam model regresi. Prasyarat yang harus terpenuhi dalam model regresi adalah tidak
adanya multikolinearitas. Ada beberapa metode pengujian yang bisa digunakan diantaranya
yaitu 1) dengan melihat nilai inflation factor (VIF) pada model regresi, 2) dengan

membandingkan nilai koefisien determinasi individual (r 2) dengan nilai determinasi secara


serentak (R2), dan 3) dengan melihat nilai eigenvalue dan condition index. Pada pembahasan
ini akan dilakukan uji multikolinearitas dengan melihat nilai inflation factor (VIF) pada
model regresi dan membandingkan nilai koefisien determinasi individual (r 2) dengan nilai
determinasi secara serentak (R2). Menurut Santoso (2001), pada umumnya jika VIF lebih
besar dari 5, maka variabel tersebut mempunyai persoalan multikolinearitas dengan variabel
bebas lainnya.
a)

Melihat

nilai

inflation

factor

(VIF)

pada

model

regresi

Contoh Kasus:
Sebagai contoh kasus kita mengambil contoh kasus pada uji normalitas pada
pembahasan sebelumnya. Pada contoh kasus tersebut setelah dilakukan uji normalitas dan
dinyatakan data berdistribusi normal, maka selanjutnya akan dilakukan pengujian
multikolinearitas. Contoh kasus sebagai berikut:
Seorang mahasiswa bernama Bambang melakukan penelitian tentang faktor-faktor yang
mempengaruhi harga saham pada perusahaan di BEJ. Data-data yang di dapat berupa data
rasio dan ditabulasikan sebagai berikut:
Tahun
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007

Tabel. Tabulasi Data (Data Fiktif)


Harga Saham (Rp)
PER (%)
8300
4.90
7500
3.28
8950
5.05
8250
4.00
9000
5.97
8750
4.24
10000
8.00
8200
7.45
8300
7.47
10900
12.68
12800
14.45
9450
10.50
13000
17.24
8000
15.56
6500
10.85
9000
16.56
7600
13.24
10200
16.98

ROI (%)
6.47
3.14
5.00
4.75
6.23
6.03
8.75
7.72
8.00
10.40
12.42
8.62
12.07
5.83
5.20
8.53
7.37
9.38

Bambang dalam penelitiannya ingin mengetahui bagaimana hubungan antara rasio


keuangan PER dan ROI terhadap harga saham. Dengan ini Bambang menganalisis dengan
bantuan program SPSS dengan alat analisis regresi linear berganda.
Langkah-langkah pada program SPSS
Kita menggunakan input data yang sama pada uji normalitas.
Klik Analyze - Regression - Linear

Klik variabel Harga Saham dan masukkan ke kotak Dependent, kemudian klik variabel PER
dan ROI dan masukkan ke kotak Independent
Klik Statistics, kemudian klik Collinearity diagnostics. Klik Continue
Klik OK, pada output anda lihat tabel coefficients pada kolom collinearity statistics, hasil
yang di dapat sebagai berikut:
Tabel. Hasil Uji Multikolinearitas

Dari hasil di atas dapat diketahui nilai variance inflation factor (VIF) kedua variabel
yaitu PER dan ROI adalah 1,899 lebih kecil dari 5, sehingga bisa diduga bahwa antar variabel
independen tidak terjadi persoalan multikolinearitas.
b) Dengan membandingkan nilai koefisien determinasi individual (r 2) dengan nilai
determinasi secara serentak (R2)
Dalam metode ini, cara yang ditempuh adalah dengan meregresikan setiap variabel
independen dengan variabel independen lainnya, dengan tujuan untuk mengetahui nilai
koefisien r2 untuk setiap variabel yang diregresikan. Selanjutnya nilai r 2 tersebut
dibandingkan dengan nilai koefisien determinasi R2. Kriteria pengujian yaitu jika r2 > R2
maka terjadi multikolinearitas dan jika r2 < R2 maka tidak terjadi multikolinearitas.
Contoh kasus:
Akan dilakukan analisis regresi untuk mengetahui pengaruh biaya produksi, distribusi,
dan promosi terhadap tingkat penjualan. sebelumnya dilakukan uji asumsi klasik
multikolinearitas, data sebagai berikut:

Tahun
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005

Tingkat
penjualan
127300000
122500000
146800000
159200000
171800000
176600000
193500000
189300000
224500000
239100000

Biaya
produksi
37800000
38100000
42900000
45200000
48400000
49200000
48700000
48300000
50300000
55800000

Biaya
distribusi
11700000
10900000
11200000
14800000
12300000
16800000
19400000
20500000
19400000
20200000

Biaya promosi
8700000
8300000
9000000
9600000
9800000
9200000
12000000
12700000
14000000
17300000

2006
2007
2008
2009
2010

257300000
269200000
308200000
358800000
362500000

56800000
55900000
59300000
62900000
60500000

18600000
21800000
24900000
24300000
22600000

18800000
21500000
21700000
25900000
27400000

Langkah-langkah analisis pada SPSS sebagai berikut:


- Inputkan data di SPSS
- Untuk analisis data, klik menu Analyze >> Regression >> Linear
Langkah pertama meregresikan antar variabel independen, langkahnya masukkan variabel
Biaya produksi ke kotak Dependent, kemudian masukkan variabel Biaya distribusi ke kotak
Independent(s).
- Klik tombol OK. Hasil pada output Model Summary sebagai berikut: (regresi variabel
Biaya produksi dengan Biaya distribusi)
- Langkah selanjutnya meregresikan variabel Biaya produksi dengan Biaya promosi,
kemudian Biaya distribusi dengan Biaya promosi dengan langkah-langkah sama seperti
langkah di atas. Hasil output seperti berikut:

- Langkah selanjutnya mencari nilai koefisien determinasi (R2) yaitu dengan meregresikan
Biaya produksi, Biaya distribusi, dan Biaya promosi terhadap Tingkat penjualan. Langkahnya
yaitu klik Analyze >> Regression >> Linear. Masukkan variabel Tingkat penjualan ke
kotak Dependent, kemudian masukkan variabel Biaya produksi, Biaya distribusi, dan Biaya
Promosi ke kotak Independent(s).
Klik tombol OK, maka hasil pada output Model Summary sebagai berikut:

Berikut ini ringkasan tabel hasil uji multikolinearitas:


Variabel Dependen
Variabel Independen
Biaya produksi
Biaya distribusi
Biaya produksi
Biaya promosi
Biaya distribusi
Biaya promosi
Nilai R2
0,983

Nilai r square (r2)


0,797
0,843
0,728

Dari tabel di atas dapat diketahui bahwa nilai koefisien r2 yang diperoleh
seluruhnya bernilai lebih kecil dari pada nilai koefisien determinasi (R 2). Dengan demikian
dapat disimpulkan bahwa tidak terjadi masalah multikolinearitas pada model regresi.

2.1.2 Akibat Multikolinearitas


Multikolineritas dapat mengakibatkan beberapa hal sebagai berikut :
1. Untuk multikolinearitas yang sempurna, perkiraan koefisien regresi tidak dapat
ditentukan dan varian serta standar errornya tidak terhingga.
2. Untuk multikolinearitas yang kurang sempurna, masih mungkin untuk menghitung
perkiraan koefisien regresi. Tetapi nilai variansi dan standar errornya besar.
3. Oleh karena standar error dari koefisien regresi besar maka interval keyakinan untuk
parameter semakin lebar. Akibatnya probabilita untuk menerima hipotesa, padahal
hipotesa itu salah (kesalahan tipe II) menjadi semakin besar nilainya.
2.1.3 Konsekuensi Teoritis dan Praktis dari Multikolinearitas
1. Konsekuensi Teoritis
1. Pada saat ada near collinearity, penaksir OLS tidak bias tetapi terjadi dalam
sampel yang berulang-ulang
2. Pada saat ada near collinearity, tidak merusak ciri varian yang minimum
namun tidak berarti bahwa rata-rata nilai numerik varian akan jadi lebih kecil
3. Multikolinearitas hanya merupakan fenomena sampel bukan fenomena
populasi
2. Konsekuensi Praktis

1.

Penaksir OLS akan mempunyai varian dan kesalahan baku yang besar
sehingga Ketepatan dan keakuratan penaksir menurun

2.

Meningkatnya interval kepercayaan akibat besarnya nilai kesalahan baku

3. Nilai t-statistik dari satu atau beberapa variabel penjelas secara statistik tidak
signifikan sehingga menimbulkan kesalahan spesifikasi
4. Nilai R2 sebagai ukuran goodness of fit sangat tinggi
5. Penaksir OLS dan kesalahan baku cenderung tidak stabil dan cenderung
sensitif bila ada perubahan yang kecil pada data
6. Adanya kesalahan tanda menurut teori ekonomi pada koefisien regresi
7. Adanya kesulitan menaksir kontribusi secara individual variabel penjelas
pada Explained sum of square atau pada R2
2.1.4 Cara Mendeteksi Multikolinearitas
Dari sebuah persamaan regresi linear yang dibuat berdasarkan data yang ada, kita belum tahu
apakah model regresi tersebut mengalami multikolinearitas. Untuk itu perlu diketahui caracara dalam mendeteksi adanya multikolinearitas. Ada beberapa cara untuk mendeteksi ada
tidaknya multikolinearitas dan beberapa indikator sebagai petunjuk bahwa terjadi kolinearitas
dalam kehidupan nyata, antara lain sebagai berikut :
1. Menggunakan Variation Inflation Factor (VIF) Variance Inflation Factor (VIF) adalah
salah satu cara dalam mendeteksi adanya multikolinearitas. Hal ini diperoleh
berdasarkan fakta bahwa kenaikan dari variansi tergantung dari s 2 dan VIF itu sendiri.
2. R2 tinggi tapi sedikit rasi t signifikan
Hal ini merupakan gejla multikolinear klasik. Jika R2 tinggi, katakanlah melebihi 0,8, tes F di
sebagian besar kasus akan menolak hipotesis nol bahwa koefisien kemiringan parsial secara
tergabung atau secara serentak sama dengan nol. Tes-tes t individual akan memperlihatkan
bahwa tak satu pun atau sangan sedikit koefisien kemiringan parsial yang berbeda secara
statistik dengan nol.
1. Korelasi berpasangan yang tinggi diantara variabel-variabel penjelas
Jika dalam regresi linear berganda yang melibatkan, katakanlah enam variabel penjelas, kita
menghitung koefisien korelasi antara segala pasangan variabel ini dengan menggunakan
rumus dan bila beberapa diantara korelasi ini tinggi, ada kemungkinan terjadinya kolinearitas
tinggi
1. Pengujian korelasi parsial
Pengujian ini melibatkan koefisian korelasi parsial dimana dicari tahu hubungan antara suatu
variabel dengan korelasi pasangan yang diwakili

1. Regresi subsider atau tambahan


Salah satu cara untuk mengetahui variabel mana yang sangat koliner dengan variabel lain
dalam model adalah meregresikan masing masing variabel terhadap variabel-variabel lain dan
menghitung R2 terkait
2.1.5 Cara Mengatasi Multikolinearitas
Masalah multikolinearitas dapat dihilangkan dengan menempuh beberapa cara, antara lain
sebagai berikut :
1. Menambahkan data yang baru.
Oleh karena adanya kolinearitas merupakan gambaran sampel , ada kemungkinan bahwa
untuk sampel lainnya yang mencakup variabel-variabel yang sama persoalan
multikolinearitas mungkin tidak seserius seperti sampel sebelumnya.
1. Menghilangkan satu atau beberapa variabel bebas yang dianggap memiliki korelasi
tinggi dari model regresi.
Pada permasalahan multikolinearitas yang serius, salah satu hal yang mudah untuk dilakukan
ialah mengeluarkan salah satu variabel yang berkorelasi tinggi dengan variabel lainnya.
1. Transformasi variabel
Menganalisis ulang model regresi yang sama, tetapi dengan niai variabel-variabel yang telah
ditransformasikan, sehingga diharapkan gangguan multikolinearitas dapat diatasi.
1. Backward combination analysis
Caranya dalah dengan meregresikan secara berulang-ulang variabel tak bebas dengan
pasangan-pasangan variabel bebas yang kombinasinya berbeda-beda. Sugnifikan yang paling
banyak dijumpai pada salah satu analisis tersebut dapat dijadikan model untuk pengabilan
keputusan, dengan asumsi gangguan-gangguan lainnya tidak dieroleh.
Mendeteksi Kolinearitas Ganda
Beberapa cara mengetahui apakah suatu model regresi itu mempunyai kolinearitas ganda
atau tidak adalah sebagai berikut:

Suatu model yang variable-variabel penjelasnya


memperlhatkan tanda-tanda sebagai berikut:
1. Koefisien determinasi ganda R2 tinggi
2. Koefisien korelasi sederhananya tinggi
3. Nilai F hitung tinggi

bersifat

kolinearitas

4. Tak satupun (sedikit sekali diantaranya) variable-variabel bebas memiliki


uji-t yang significan, walaupun keadaan 1, 2 dan 3 terpenuhi.

Jika hanya ada dua variable bebas yang ternyata korelasi antara kedua variable itu
tinggi, maka dapat merupakan indikasi bahwa dalam model tersebut terjadi
kolinearitas. Akan tetapi apabila model itu mempunyai lebih dari dua variable
bebas, walaupun korelasi antara dua variable rendah, tidak dapat menjadi jaminan
bahwa model tersebut tida bersifat multikollinearitas.

Apabila model yang akan diuji adalah:

Y = f( X2, X3, X4)

dengan koefosien determinasi gandanya adalah tinggi yakni: R 21.234 = mendekati 1,


akan tetapi r212.34, r213.24, r214.23 mempunyai nilai yang sangat rendah dibandingkan
nilai kofisien determinasi ganda antara Y dengan X2, X3, dan X4 berarti ada
kolinearitas ganda.

Mengadakan uji F antara variable-variabel bebasnya. Jika F hitung dibandingkan


dengan F tabel dan ternyata signifikan maka dapat dianggap bahwa ada
multikolinearitas (Awat, 1995).

Akibat Adanya Kolinearitas Ganda

Jika hubungan antar variable bebasnya sempurna, maka koefisien regresi parsial
tak akan dapat diestimasi.

Kalau hubungan tersebut tidak sempurna, maka koefisien regresi parsial masih
bisa diestimasi, tetapi kesalahan baku dari penduga koefisien regresi parsial sangat
besar. Hal ini menyebabkan pendugaan/peramalan nilai Y kurang teliti.

Cara Mengatasi Masalah Kolinearitas Ganda

Memeriksa secara teoritis untuk mengetahui apakah antara variable bebas


memang ada hubungannya.

Mengadakan penggabungan antara data cross-section dan time series, yang akan
disebut sebagai polling data.

Mengeluarkan salah satu variable bebasnya dari model tersebut.

Mentransformasi variable yang ada dalam model.

Menambah data baru, yakni menambah jumlah observasi atau n. Dengan semakin
besarnya n, maka ada kemungkinan bahwa standard error akan semakin kecil
pula.