Anda di halaman 1dari 29

DETEKSI DAN

PERBAIKAN
MULTIKOLINEA
RITAS
Siti Hartinah, SE., M.Ak.
DEFINISI
MULTIKOLINEARITAS
Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau hubungan
kuat antara dua variabel bebas atau lebih dalam sebuah model regresi berganda. Model regresi
yang dimaksud dalam hal ini antara lain: regresi linear, regresi logistik, regresi data panel dan
cox regression.
Pada persyaratan asumsi klasik yang ke 8 pada model CLRM (Clasical linear Regresion model)
tidak ada multikolinearitas diantara regressor-regressor yang terlibat dalam model regresi.
MATERI YANG DIPELAJARI
MENGENAI
MULTIKOLINEARITAS
1. Sifat alami dari multikolinearitas
2. Apakah Multikolinearitas benar-benar merupakan sebuah problem?
3. Apa saja konsekuensi praktisnya?
4. Bagaimana cara mendeteksi multikolinearitas?
5. Apa saja langkah perbaikan yang dapat ditempuh untuk menanggulangi masalah
multikolinearitas?
HUBUNGAN ANTAR VARIABEL BEBAS

1. Tidak berkorelasi dengan dirinya sendiri


2. Tidak berkorelasi dengan variabel bebas lain yang terkait dg variabel tak
bebas namum belum/tidak masuk dalam model
3. Berkorelasi dengan dirinya sendiri
4. Berkorelasi dengan variabel bebas lain yang terkait dg variabel tak bebas
namum belum/tidak masuk dalam model

4
CONTOH

Misalkan regresi pengeluaran untuk konsumsi makanan keluarga pada


pendapatan keluarga, tabungan, usia kepala keluarga.
 Variabel bebas akan saling berkorelasi
 Variabel bebas juga berkorelasi dengan variabel sosial-ekonomi lain yang berpengaruh terhadap
pengeluaran untuk konsumsi, misalkan ukuran keluarga

→ Terjadi Multikolinieritas (kolinieritas)

5
MULTIKOLINIERITAS
Ditemukan pertama kali oleh Ragnar Frisch (Institute of
Economics, Oslo University)
Pada awalnya, multikolinieritas berarti adanya hubungan
yg linier sempurna atau pasti diantara beberapa atau semua
variabel bebas dalam model regresi
Misalkan pada model regresi dengan k variabel bebas X1,
X2, …, Xk (dimana X1 = 1), suatu hubungan linier yg
sempurna dikatakan ada jika memenuhi kondisi:
1X1+2X2+…+kXk = 0
dimana 1, 2, …, k adalah konstanta sdmk shg tidak
semuanya nol (0)
6
MULTIKOLINIERITAS
Perkembangannya, multikolinieritas juga berarti adanya
hubungan yg linier kuat tetapi tidak sempurna diantara
beberapa atau semua variabel bebas dalam model regresi
Misalkan pada model regresi dengan k variabel bebas X1,
X2, …, Xk (dimana X1 = 1), suatu hubungan linier yg kuat
tapi tidak sempurna dikatakan ada jika memenuhi
kondisi:
1X1+2X2+…+kXk + vi = 0
dimana vi adalah unsur kesalahan yg bersifat stokastik

7
SIFAT ALAMI DARI
MULTIKOLINEARITAS
 Istilah Multikolinearitas mengacu pada Ragnar Fisch. Awalnya hal tersebut memperlihatkan
keberadaaan dari hubungan linear yang sempurna atau tepat diantara sebagian atau seluruh
variabel penjelas dalam sebuah model regresi. yang dapat digambarkan sebagai berikut:

𝛾  1 𝑋 1+𝛾 2 𝑋 2+…+𝛾 𝑘 𝑋 𝑘=0


 Mengapa CLRM mengasumsikan tidak ada multikolinearitas diantara variabel X: jika
multikolinearitas bersifat sempurna, maka koefisien variabel-variabel X tidak dapat ditentukan
dan standard errornya tidak terhingga. Jika multikolinearitas kurang sempurna, maka koefisien
regresi dapat ditentukan dan memiliki standard error yang besar (dalam kaitannya dengan
koefisien itu sendiri, dimana koefisien tidak dapat diestimasi dengan tingkat keakuratan yang
tinggi.
GAMBAR HUBUNGAN
MULTIKOLINEARITAS PADA
VARIABEL PENJELAS
𝛾 𝛾    
(REGRESSOR)
𝛾  

x2 Area Area
x3 Hubungan x2 x3 Hubungan
x2 x3

(a) Tidak ada Multikolinearitas (b) Multikolinearitas Rendah (c) Multikolinearitas Sedang

 𝛾
 𝛾
x2 Area
x3 Hubungan
x2 x3 Area
Hubungan

(d) Multikolinearitas Tinggi (e) Multikolinearitas Sangat Tinggi


MULTIKOLINEARITAS DAPAT
DISEBABKAN OLEH FAKTOR-
1.
FAKTOR SEBAGAI BERIKUT :
Metode pengumpulan data yang digunakan . Sebagai contoh , jika mengambil sampel dari
jangkauan nilai yang terbatas dan diambil dari regressor-regressor di populasi
2. Batasan yang ada pada model atau populasi diambil sampelnya. Sebagai contoh, dalam regresi
konsumsi listrik terhadap pendapatan (X 2), dan ukuran rumah (X3), terdapat Batasan fisik populasi
pada keluarga tersenit. Dimana keluarga dengan pendapatan yang lebih tinggi biasanya memiliki
rumah yang lebih besar dibandingkan keluarga dengan pendapatan yang lebih rendah.
3. Spesifikasi model. Sebagai contoh, menambahkan istilah polynomial pada model regresi, khususnya
variabel X kecil
4. Model yang ”overdetermined”. hal ini terjadi jika model memiliki lebih banyak variabel penjelas
daripada jumlah observasinya. Kasus ini dapat terjadi dalam penelitian medis, dimana mungkin saja
hanya terdapat sedikit jumlah pasien yang informasinya dikumpulkan pada variabel dengan jumlah
yang lebih banyak
Alasan tambahan untuk multikolinearitas pada data time series adalah terdapat kemungkinan regressor-
regressor yang diikutsertakan dalam model memiliki trend yang serupa dari waktu ke waktu pada laju
yang kurang lebih sama, sehingga menyebabkan kolinearitas diantara variabel tersebut.
GEJALA MULTIKOLINEARITAS
Dalam
  situasi terjadi multikolinearitas dalam sebuah model regresi berganda, maka nilai
koefisien ( dari sebuah variabel bebas atau variabel predictor dapat berubah secara dramatis
apabila ada penambahan atau pengurangan variabel bebas di dalam model.
Oleh karena itu, multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun
mempengaruhi nilai prediksi dari sebuah variabel bebas.
Nilai prediksi sebuah variabel bebas disini adalah koefisien beta. Oleh karena itu, sering kali
kita bisa mendeteksi adanya multikolinearitas dengan adanya nilai standar error yang besar dari
sebuah variabel bebas dalam model regresi.
Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi multikolinearitas,
maka sebuah variabel yang berkorelasi kuat dengan variabel lainnya di dalam model, kekuatan
prediksinya tidak handal dan tidak stabil. Dan pengertian multikolinearitas
adalah sesungguhnya terletak pada ada atau tidak adanya korelasi antar variabel bebas.
DAMPAK DARI
MULTIKOLINEARITAS
 Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar errornya
besar.
 Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan drastis pada
nilai koefisien regresi partial.
 Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai koefisien regresi
parsial variabel lainnya.
 Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk menolak
hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut terdapat multikolinearitas.
KONSEKUENSI DARI
MULTIKOLINEARITAS
 Jika terdapat kolinearitas sempurna diantara variabel X, koefisien regresi tidak dapat
ditentukan dan standar errornya tidak dapat didefinisikan.
 Jika kolinearitas tinggi, tetapi tidak sempurna, estimasi dari koefisien regresi masih
dimungkinkan, namun nilai standard error cenderung jadi lebih besar. Sebagai hasilnya nilai
populasi dari koefisien-koefisien tidak dapat diestimasi dengan tepat
 Namun jika demikian, tujuannya adalah mengestimasi kombinasi linear dari koefisien-
koefisien tersbut, fungsi yang dapat diestimasi. Hal ini dapat dilakukan bahkan pada
keberadaan multikolinearitas sempurna
PENGARUH PADA SAAT VARIABEL BEBAS
TIDAK SALING BERKORELASI
Data produktifitas Kerja
Crew Bonus Crew Produktivity Lakukan analisis
Trial
regresi secara
(i) Size (Xi1) pay (Xi2) Score (Yi)
parsial & overall
1 4 2 42
2 4 2 39
3 4 3 48
4 4 3 51
5 6 2 49
6 6 2 53
7 6 3 61
8 6 3 60

Agung Priyo Utomo - STIS 14


PENGARUH PADA SAAT VARIABEL BEBAS
SALING BERKORELASI SECARA SEMPURNA
CONTOH :
Case Xi1 Xi2 Yi Xi2 = 5 + 0,5 Xi1
(i)
1 2 6 23
2 8 9 83
3 6 8 63
4 10 10 103

Agung Priyo Utomo - STIS 15


KONSEKUENSI MULTIKOLINIERITAS

1. Meski penaksir OLS bisa diperoleh, standard error


(kesalahan baku) cenderung semakin besar dengan
meningkatnya korelasi antar variabel bebas

Misal pada model regresi yi  ˆ 1 xi1  ˆ 2 xi2  ei


dimana xi  X i  X dan yi  Yi  Ymaka
( yi xi1 )( xi22 )  ( yi xi 2 )( xi1 xi 2 )
ˆ 1 
( xi21 )( xi22 )  ( xi1 xi 2 ) 2

Agung Priyo Utomo - STIS 16


KONSEKUENSI MULTIKOLINIERITAS

Jika xi2 = xi1 + vi, dimana  ≠ 0 dan Σ xi2vi = 0, maka


( yi xi1 )( xi22   vi2 )  ( yi xi 2   yi vi )( xi21 )
ˆ 1 
( xi21 )( xi21   vi2 )  ( xi21 ) 2

Penaksir β2 dapat dicari secara analogi dengan pencarian


penaksir β1.

Agung Priyo Utomo - STIS 17


KONSEKUENSI MULTIKOLINIERITAS

Perilaku varian ̂1 jika koefisien korelasi rx1x2 meningkat


rx1x2 var(ˆ 1 ) rx1x2 var(ˆ 1 )
2 2
0 0,9 (5,26)
 xi21  xi21
2 2
0,5 (1,33) 0,95 (10,26)
 xi21  xi21
2
0,7 (1,96) 1,0 ∞
 xi21
2
0,8 ( 2,78)
 xi21

Agung Priyo Utomo - STIS 18


KONSEKUENSI MULTIKOLINIERITAS

2. Besarnya standard error berakibat, selang keyakinan


(confidence interval) untuk suatu parameter menjadi lebih
lebar
Misalkan rx1x2  0,9 maka CI 95% untuk β1 dirumuskan
sebagai berikut:
2

ˆ 1  (1,96) (5,26)
 i1
x 2

3. Kesalahan tipe II meningkat

Agung Priyo Utomo - STIS 19


KONSEKUENSI MULTIKOLINIERITAS

4. Pada multikolinieritas yg tinggi tapi tidak sempurna,


estimator koefisien regresi bisa diperoleh, tapi estimator &
standard error menjadi sensitif terhadap perubahan data
Contoh: Y X1 X3 Y X1 X3
1 2 4 1 2 4
2 0 2 2 0 2
3 4 12 3 4 0
4 6 0 4 6 12
5 8 16 5 8 16

Periksa signifikansi koefisien regresi, s.e., & R2

Agung Priyo Utomo - STIS 20


KONSEKUENSI MULTIKOLINIERITAS

5. Pada multikolinieritas yg tinggi tapi tidak sempurna, bisa


terjadi R2 (koefisien determinasi) tinggi namun tidak
satupun variabel signifikan secara statistik

Agung Priyo Utomo - STIS 21


DETEKSI MULTIKOLINEARITAS

 Nilai R2 yang tinggi, tetapi tidak ada atau sedikit koefisien regresi yang secara statistik
signifikan berdasarkan uji t konvensional. Jika R2 tinggi, melebihi 0.8 uji F pada sebagian besar
kasus akan menolak hipotesis yang menyatakan bahwa koefisien kemiringan parsial secara
simultan = 0, tetapi uji t individual akan menunjukkan bahwa tidak ada atau sangat sediki nilai
koefisien kemiringan parsial secara statistik tidak nol.
 Korelasi berpasangan yang tinggi diantara regressor. Jika koefisien korelasi berpasangan atau
zero order diantara dua regressor tinggi melebihi 0.8, maka multikolinearitas merupakan masalah
yang serius.
 Pemeriksaan Korelasi Parsial. Koefisien korelasi zero order dapat menyesatkan pada model yang
melibatkan lebih dari dua variabel X karena kemungkinan koefisien korelasi zero order yang
rendah, tetapi multikolinearitas tinggi. Pada situasi ini mungkin perlu untuk memeriksa koefisien
korelasi parsial
DETEKSI
 
 Regresi MULTIKOLINEARITAS
Penyokong. Multikolinearitas timbul akibat dari satu atau lebih regressor yang merupakan
kombinasi linear tepat atau mendekati dengan variabel X lainnya, salah satu cara untuk mencari tahu X
yang berhubugan dengan X lainnya adalah dengan melakukan regresi setiap X terhadap variabel X sisanya
dan menghitung nilai R2, dimana dapat didesain sebagai Rt2, setiap regresi tersebut disebut regresi
penyokong. Jika Nilai R2 pada regresi penyokong lebih besar dari R2 keseluruhan yang diperoleh dari
regresi Y terhadap semua regressor.
 Eigenvalue dan kondisi indeks. Kita dapat menentukan eigenvalue dan indeks kondisi untuk
mendiagnosis multikolinearitas. Dari nilai eigenvalue dapat dilihar sebagai nilai kondisi k yang
didefinisikan sebagai Indeks kondisi (IK) sebagai berikut :

 
IK =

Jika nilai k antara 100 dan 1000 teradapat multikolinearitas sedang hingga kuat. Dan jika k melebihi 1000, terdapat multikolinearitas yang parah.

berada diantara 10 dan 30 terdapat multikolinearitas sedang hingga kuat dan jika melebihi
Dengan kata lain, jika (IK =

30 maka terdapat multikolinearitas yang parah.


DETEKSI
MULTIKOLINEARITAS
1. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel bebas > 0,8 dapat
diindikasikan adanya multikolinearitas.
2. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error > 1, maka dapat
diindikasikan adanya multikolinearitas.
3. Melihat rentang confidence interval. Jika rentang confidence interval sangat lebar, maka dapat
diindikasikan adanya multikolinearitas.
4. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan nilai eigenvalue
< 0,001 dapat diindikasikan adanya multikolinearitas.
5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance < 0,1 dan VIF >
10 dapat diindikasikan adanya multikolinearitas. Sebagian pakar menggunakan batasan Tolerance
< 0,2 dan VIF > 5 dalam menentukan adanya multikolinearitas. Para pakar juga lebih banyak
menggunakan nilai Tolerance dan VIF dalam menentukan adanya Multikolinearitas di dalam
model regresi linear berganda dibandingkan menggunakan parameter-parameter yang lainnya.
CARA MENGATASI
MULTIKOLINEARITAS
 Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktor sebelum regresi.
Setelah analisis faktor, variabel baru yang terbentuk kita gunakan sebagai variabel di dalam
model regresi.
 Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi kuat. Oleh karena itu,
sebelumnya anda harus mencari variabel yang nilai VIFnya tinggi dan nilai korelasinya dengan
variabel bebas lainnya kuat.
 Dengan cara melakukan operasi matematis antar variabel bebas yang berkorelasi kuat sehingga
didapat variabel baru hasil operasi tersebut yang kemudian dimasukkan ke dalam model regresi
sebagai perwakilan dari variabel yang menjadi sumber operasi matematis tersebut.
 Melakukan standarisasi terhadap variabel yang menjadi penyebab inklusi perkalian antara
variabel, dimana hasil perkalian setelah standarisasi tersebut yang dimasukkan ke dalam model
bersama-sama dengan variabel yang sudah distandarisasi.
ALTERNATIF SOLUSI MENGATASI
MULTIKOLINIERITAS
1. Informasi apriori
Contoh:
Pada model Yi = β0+β1Xi1+β2Xi2+εi
Misal Y = Konsumsi, X1 = Pendapatan, X2 = Tabungan
Informasi apriori, misalkan β2 = 0,10β1 sehingga
Yi = β0+β1Xi1+0,10β1Xi2+εi = β0+β1Xi+εi
dimana Xi = Xi1+0,10Xi2
Informasi apriori bisa berdasarkan suatu teori atau hasil
penelitian sebelumnya

Agung Priyo Utomo - STIS 26


ALTERNATIF SOLUSI MENGATASI
MULTIKOLINIERITAS
2. Menghubungkan data cross-sectional dan data time series
(panel data)
3. Mengeluarkan satu atau beberapa variabel bebas
Beberapa metode yg dapat digunakan:
 Principle Component Analysis
 Factor Analysis
 Stepwise Regression
 dan sebagainya.

Agung Priyo Utomo - STIS 27


ALTERNATIF SOLUSI MENGATASI
MULTIKOLINIERITAS
4. Transformasi variabel (melalui first differencing)
Untuk data time series, jika hubungan
Yt = β0+β1Xt1+β2Xt2+εt
berlaku pd saat t, maka berlaku pula untuk t-1, shg ada
Yt-1 = β0+β1X(t-1)1+β2X(t-1)2+εt-1
Jika kedua persamaan di atas dikurangkan, maka diperoleh
Yt – Yt-1 = β1(Xt1 – X(t-1)1) + β2(Xt2 – X(t-1)2) + vt
dimana vt = εt – εt-1
5. Penambahan data baru

Agung Priyo Utomo - STIS 28


LATIHAN
1. Berdasarkan data berikut, cocokkan model
Yi = β0+β1Xi1+β2Xi2+εi
2. identifikasi gejala multikolinearitas pada model tersebut? Dapat
menggunakan alat SPSS atau eview.
No. Y X1 X2 No. Y X1 X2
1 -10 1 1 7 2 7 13
2 -8 2 3 8 4 8 15
3 -6 3 5 9 6 9 17
4 -4 4 7 10 8 10 19
5 -2 5 9 11 10 11 21
6 0 6 11

29

Anda mungkin juga menyukai