BAB V - Ayu Enjelina 135190018 (AutoRecovered)
BAB V - Ayu Enjelina 135190018 (AutoRecovered)
MULTIKOLINIERITAS
A. Landasan Teori
Multikolinearitas adalah suatu kondisi dimana terjadi korelasi antara
variabel bebas atau antar variabel bebas tidak bersifat saling bebas. Besaran
(quality) yang dapat digunakan untuk mendeteksi adanya multikolinearitas
adalah faktor inflasi ragam (Variance Inflation Factor / VIF). VIF digunakan
sebagai kriteria untuk mendeteksi multikolinearitas pada regresi linier yang
melibatkan lebih dari dua variabel bebas. Nilai VIF lebih besar dari 10
mengidentifikasi adanya masalah multikolinearitas yang serius (Ryan, 1997).
Multikolinearitas adalah terjadinya hubungan linier antara variabel
bebas dalam satu model regresi linier berganda (Gujarati,2003). Adapun
dampak terjadninya multikolinieritas dalam model regresi linier berganda
adalah (Gujarati,2003) :
1. Penaksiran OLS klasik bersifat BLUE, tetapi mempunyai variasns dan
kovariansi yang besar sehingga sulit mendapatkan taksiran(estimasi) yang
tepat.
2. Akibat penaksiran OLS mempunyai variansi dan kovariansi yang besar
membuat interval estinmasi akan cenderung kebih besar dan nilai hitung
satistik uji t akan kecil,sehingga membuat variabel bebas secara statistik
tidak signifikan mempengaruhi variabel tidak bebas.
Ada beberapa cara untuk mengetahui terjadinya Multikolinieritas sebagai
berikut :
1. Faktor variansi inflasi yang kecil maka multikolinieritas lebih sederhana.
Faktor inflasi melebihi nilai 10 maka akan dikatakan terjadi
multikolineritas.
2. Kolinearitas diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien
korelasi sederhana (korelasi derajat nol) juga tinggi (Gujarati, D. 2003).
Multikolinearitas adalah suatu keadaan dimana terdapat korelasi antar
variabel prediktor ketika dalam model regresi menggunakan lebih dari satu
variabel prediktor. Apabila terjadi multikolinearitas pada data akan
menyebabkan matrik memiliki determinan sama dengan nol. Solusi untuk
mengatasi adanya Multikolinearitas adalah dengan mengeluarkan variabel
prediktor yang tidak signifikan (dropping variable) dan meregresikan kembali
variabel-variabel prediktor yang signifikan.
Hocking (1996) mengemukakan bahwa ada tiga kriteria yang dapat
digunakan untuk mendeteksi multikolinearitas. Ketiga kriteria tersebut adalah:
1. VIF (Variance Inflation Factors), yaitu jika nilai VIF lebih besar dari 10
menunjukkan adanya multikolinieritas antara variabel-variabel prediktor.
VIF dirumuskan :
VIF = I / (1-R j 2 ),
dengan Rj adalah koefisien determinasi.
2. Koefisien korelasi pearson ( ij r ) yaitu multikolinearitas terjadi apabila antar
variabel prediktor nilai korelasinya >0,95.
3. Nilai eigen ( ) λi, yaitu msultikolinearitas terjadi apabila nilai eigen pada
matriks korelasi antar semua variabel prediktor <0,05.
Multikolinearitas bertujuan untuk mengetahui apakah dalam model regresi
ditemukan adanya korelasi antar variabel bebas (independen). Model regresi
yang baik seharusnya tidak terjadi korelasi di antara variabel independen.
Untuk menentukan ada tidaknya multikolinearitas dalam suatu model regresi
adalah dapat dilihat dari nilai tolerance dan Variance Inflation Factor (VIF).
Tolerance adalah besarnya tingkat kesalahan yang dibenarkan secara statistik.
Nilai VIF adalah fator inflasi penyimpangan baku kuadrat. Jika tolerance 10%
atau 0,1 maka VIF adalah 10. Jika VIF < 10 maka tidak terdapat
multikolinearitas (Sembiring, 1995).
Apabila dalam deteksi multikolinearitas menunjukkan terjadinya
pelanggaran asumsi multikolinearitas, maka masalah tersebut harus diatasi.
Berikut adalah beberapa cara untuk mengatasi multikolinearitas:
a. Memanfaatkan informasi sebelumnya (prior information)
Menurut Berger (1980), informasi prior untuk parameter adalah
suatu informasi non sampel yang muncul dari pengalaman masa lalu
dengan situasi yang hampir sama dan memuat parameter yang sama.
b. Memperbesar ukuran sampel
Multikolinearitas diharapkan bisa hilang atau berkurang jika ukuran
sampel diperbesar (atau jumlah sampel ditambah). Dengan memperbesar
ukuran sampel, maka kovarian diantara parameterparameter dapat
dikurangi (Hoerl dan Kennard, 1970).
c. Menghilangkan salah satu atau lebih variabel bebas
Untuk menghilangkan beberapa variabel bebas dari model,
dilakukan satu persatu. Pilih variabel bebas yang memiliki korelasi paling
tinggi dengan variabel lainnya. Menghilangkan satu variabel dari model
harus dilakukan dengan hati-hati. Tindakan ini tidak bisa dilakukan jika
hilangnya sebuah variabel akan mengakibatkan terjadinya kesalahan
spesifikasi dalam model. Hal ini biasanya dikarenakan secara teoritis
variabel tersebut tidak dapat dihilangkan dari model (Hoerl dan Kennard,
1970).
d. Estimasi Regresi Ridge
Menurut Montgomery (2006), salah satu cara untuk mengatasi
masalah multikolinearitas adalah menggunakan estimasi regresi Ridge.
Estimasi Ridge untuk koefisien regresi dapat diperoleh dengan
menyelesaikan suatu bentuk persamaan normal regresi
Parameter penting yang membedakan regresi ridge dari metode
kuadrat terkecil adalah konstanta . Konstanta bias yang relatif kecil,
bernilai antara 0 dan 1 ditambahkan pada diagonal utama matriks , sehingga
koefisien estimator regresi Ridge dipenuhi dengan besarnya konstanta bias
(Hoerl dan Kennard, 1970).
B. Soal Latihan
Tabel 5.1 Pengaruh Pendapatan, Pertumbuhan Penduduk, Jumlah Outlet,
Pesaing dan Biaya Promosi Terhadap Jumlah Penjualan.
NO PJL PDT PTB OUT PSG PRO
1 208 1.81 1.53 144 15 28
2 203 2.01 2 139 16 22
3 215 4.46 1.5 165 19 29
4 244 1.3 1.75 182 17 30
5 285 1.6 1.64 191 15 45
6 311 2.55 2.65 238 24 52
7 264 3.35 1.45 156 16 38
8 339 2.65 1.67 280 10 40
9 204 2.44 2.74 149 16 24
10 205 1.55 1.35 154 14 26
11 253 3.79 2.13 188 11 33
12 245 1.53 2.64 174 19 29
13 204 1.75 1.63 140 21 19
14 290 1.53 2.53 198 18 47
15 233 2.51 2.54 174 18 28
Keterangan:
PJL : Penjualan (Juta Rupiah)
PDT : Pendapatan Masyarakat (Juta Rupiah)
PTB : Pertumbuhan Penduduk (%tahun)
OUT : Outlet (m2)
PSG : Pesaing (Kompetitor)
PRO : Promosi (Juta Rupiah)
C. Langkah Kerja
1. Uji Variance Inflation Factor (VIF)
a. Membuka aplikasi E-Views kemudian memilih Create A New E-Views
workfile untuk membuka lembar kerja.
b. Mengklik Workfile Create, memilih Unstructured/Undated, pada kolom
Data Range memasukkan angka 15 yang berarti data yang di analisis
berjumlah 15. Kemudian, mengklik Ok.
f. Setelah itu, memilih kolom variabel PJL, PDT, PTB, OUT, PSG dan PRO
dan mengubah Character menjadi Number pada Data Type. Setelah itu,
mengklik Next.
i. Setelah itu, memasukkan rumus pjl c pdt ptb out psg pro pada kolom
Equation Estimation, kemudian mengklik Ok.
l. Maka akan muncul hasil data dari Variance Inflation Factors (VIF).
C 664.8658 68.42729 NA
PDT 12.41529 7.919600 1.030277
PTB 50.73427 21.79214 1.252723
OUT 0.017533 59.77550 2.515696
PSG 1.114222 32.95747 1.357747
PRO 0.261757 31.10288 2.355136
E. Interpretasi
1. Uji Variance Inflation Factor (VIF)
Uji Variance memiliki kriteria penilaian yaitu apabila nilai Variance
Inflation Factor (VIF) ˃ 10 maka terdapat persoalan multikolinieritas di
antara variabel bebas. Sedangkan apabila nilai Variance Inflation Factor
(VIF) < 10 maka tidak terdpaat persoalan multikolinieritas di antara variabel
bebas.
Berdasarkan hasil atau output diperoleh nilai centered Variance
Inflation Factor (VIF) dari variabel PDT sebesar 1.030277, variabel PTB
sebesar 1.252723, variabel OUT sebesar 2.515696, variabel PSG sebesar
1.357747, dan variabel PRO sebesar 2.355136. Dari data tersebut diketahui
bahwa kelima variabel mempunyai centered Variance Inflation Factor
(VIF) yang kurang dari 10 (< 10) yang artinya tidak terjadi
multikolinearitas..
2. Uji Pair Wise Correlation (Korelasi Berpasangan)
Uji Pair Wise Correlation terjadi apabila nilai matrik korelasi > 0,8,
maka terjadi multikolinieritas pada model. Jika nilai matrik korelasi < 0,8,
maka tidak terjadi multikolinieritas pada model.
Berdasarkan hasil atau output diketahui bahwa setiap variabel
dengan pasangan variabel yang sama mempunyai nilai korelasi berpasangan
sebesar 1.000000. Dari hasil atau output diketahui besarnya nilai korelasi
berpasangan dari variabel PDT dan variabel PTB sebesar -10.1844, variabel
PDT dan Variebl OUT sebesar 0.101262, variabel PDT dan Variabel PSG
sebesar -0.124238, variabel PDT dan variabel PRO sebesar 0.056377,
variabel PTB dan variabel OUT sebesar 0.181000, variabel PTB dan
variabel PSG sebesar 0.366677, variabel PTB dan variabel PRO sebesar
0.192394, variabel OUT dan variabel PSG sebesar -0.165633, variabel OUT
dan variabel PRO sebesar 0.728841, dan variabel PSG dan variabel PRO
sebesar 0.084958. Berdasarkan hasol yang diperoleh dari data tersebut
diketahui bahwa masing-masing pasangan variabel yang berbeda
mempunyai nilai korelasi berpasangan lebih kecil dari 0.8 (<0.8) yang
artinya tidak terjadi multikolinearitas.
3. Uji Auxiliary Regression
Uji Auxiliary Regression memiliki syarat yaitu apabila nilai R2 1 > R2
2, R2 3, … R 2 n, maka tidak terjadi multikoliearitas pada model. Jika nilai R2
1 < R2 2, R2 3, … R 2 n, maka terjadi multikolinearitas pada model.
Berdasarkan hasil atau output regresi keseluruhan didapati nilai R
Square sebesar 0.95081. Dari hasil atau output regresi penjualan dengan
pendapatan didapati nilai R Square sebesar 0.002605, hasil atau output
regresi penjualan dengan pertumbuhan penduduk didapati nilai R Square
sebesar 0.025730, hasil atau output regresi penjualan dengan outlet didapati
nilai R Square sebesar 0.852337, hasil atau output regresi penjualan dengan
pesaing didapati nilai R Square sebesar 0.012920 dan hasil atau output
regresi penjualan dengan promosi didapati nilai R Square sebesar 0.776941.
Dari data yang didapat diketahui bahwa nilai Adjusted R Square
penjualan dengan masing-masing variabel independent lebih kecil daripada
nilai R Square regresi keseluruhan yang memiliki nilai sebesar 0.950181,
yang berarti tidak terjadi multikolinearitas.
DAFTAR PUSTAKA
Ryan, T. P. 1997. Modern Regression Methods. John Wiley & Sons. New York.
Sembiring, R. K. 1995. Analisis Regresi. ITB. Bandung