Anda di halaman 1dari 17

EKONOMETRIKA

“MULTIKOLINEARITAS”

Disusun Oleh Kelompok 3 :

Andi Desiah Abd. Rasul


Pradilia Nurul Fitrah
A. Nurul Pratiwi Syalwahyudi Nur
Khairial Muqarramah Fitriana
Salman Rezki Inta Fawa’id
Aulia Karimah Amin Fani Setianingsih
Yasmin Resky Amalia
Rizwan Syawal Yuswandi Yusuf
Andi Muh. Naufal Hasri Liyani
Karmila Kahar Agussalim Al Fath
Andi Ummu Azizah Regita Saskia Sari
Elis Kusuma Wardani Rismawati
Nurshobri Washolaat Rambe Dias Reza Ramadhan
Nur Zahra Afifa A.

PROGRAM STUDI SOSIAL EKONOMI PERIKANAN


DEPARTEMEN PERIKANAN
FAKULTAS ILMU KELAUTAN DAN PERIKANAN
UNIVERSITAS HASANUDDIN
MAKASSAR
2019
KATA PENGANTAR

Dengan menyebut nama Allah SWT yang Maha Pengasih dan Maha
Penyanyang. Puji syukur atas kehadirat Allah yang telah melimpahkan rahmat,
hidayah, serta inayah-NyA kepada penulis sehingga bisa menyelesaikan makalah
tentang “Multikolinearitas”.
Makalah ini disusun dengan maksimal dan mendapat bantuan dari
berbagai pihak sehingga bisa memperlancar pembuatan makalah ini. Untuk itu
penulis menyampaikan terimakasih kepada semua pihak yang telah berkontribusi
dalam pembuatan makalah ini.
Terlepas dari segala hal tersebut, penulis menyadari sepenuhnya bahwa
masih ada kekurangan baik dari segi susunan kalimat maupun tata bahasa. Oleh
karenanya penulis menerima segala saran dan kritik dari pembaca agar penulis
dapat memperbaiki makalah ini.

Makassar, 7 April 2019

Penyusun

i
DAFTAR ISI
KATA PENGANTAR………………………………………….......……...….…..i
DAFTAR ISI………...……………………...................…………………...….….ii
BAB I PENDAHULUAN
1.1 Latar Belakang…………………………..................………………………....1
1.2 Rumusan Masalah…………………………..........…………………………..2
1.3 Tujuan ...............…………………….......................………...…………….... 2
BAB II PEMBAHASAN
2.1 Pengertian Multikolinearitas.............................................................................3
2.2 Dampak Multikolinearitas.................................................................................4
2.3 Cara Mendeteksi Multikolinearitas...................................................................4
2.4 Cara Mengatasi Multikolinearitas.....................................................................5
2.5 Contoh Kasus..................…..............................................................................6
BAB III PENUTUP
3.1 Kesimpulan…………………………………..........………………………...11
3.2 Saran……..………………………………...............………………………...11
DAFTAR PUSTAKA…………………………………..……………….....…....12

ii
BAB I

PENDAHULUAN

1.1 Latar Belakang

Analisis regresi merupakan suatu alat statistik yang seringkali digunakan


sebagai peramalan suatu data untuk masa yang akan datang. Analisis regresi
digunakan untuk membangun suatu model matematis yang dapat digunakan untuk
meramalkan atau menduga nilai variabel Y (variabel terikat/ dependen/ respon)
berdasarkan pada nilai-nilai variabel X (variabel bebas/ independen/ prediktor).
Model regresi yang paling sederhana adalah regresi linear sederhana dimana dalam
model regresi tersebut hanya terdapat satu variabel bebas saja. Sedangkan jika
variabel bebas yang digunakan dalam model regresi lebih dari satu maka disebut
regresi linear berganda.
Analisis regresi linear berganda lebih kompleks dari pada analisis regresi
linear sederhana karena lebih banyak melibatkan variabel yang dapat menimbulkan
permasalahan statistik yang berbeda. Salah satu permasalahan yang sering muncul
dalam analisis regresi linear berganda adalah terjadinya multikolinearitas.
Dampak dari multikolinearitas ini dapat mengakibatkan koefisien regresi yang
dihasilkan oleh suatu analisis regresi linear menjadi sangat lemah sehingga tidak
dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel
bebas yang bersangkutan (Montgomery dan Hines, 1990). Dalam banyak hal masalah
multikolinearitas dapat menyebabkan uji T menjadi tidak signifikan. Padahal jika
masing-masing variabel bebas diregresikan secara terpisah dengan variabel tak bebas
(simple regression), uji T menunjukkan hasil yang signifikan. Hal tersebut sering kali
membuat pusing para peneliti karena hasil analisis yang dilakukan pada regresi linear
berganda dan regresi linear sederhana tidaklah sejalan atau bahkan sangat
bertentangan.
Ada beberapa prosedur yang dapat digunakan untuk mengatasi masalah
multikolinearitas. Akan tetapi pada prakteknya, prosedur tersebut sangat tergantung

1
pada kondisi penelitian. Oleh karena itu, perlu adanya solusi yang memberikan efek
penanggulangan yang besar pada masalah multikolinearitas dalam analisis regresi
linear.

1.2 Rumusan Masalah

Adapun rumusan masalah berdasarkan latar belakang di atas ialah :


1. Apa yang dimaksud dengan multikolinearitas?
2. Jelaskan dampak dari adanya multikolinearitas dalam data !
3. Bagaimana cara mendeteksi ada tidaknya multikolinearitas antar variabel bebas
pada analisis regresi ?
4. Jelaskan beberapa cara yang dapat dilakukan untuk mengatasi masalah
multikolinearitas !

1.3 Tujuan
Adapun tujuan dari penulisan makalah ini ialah :
1. Untuk mengetahui definisi dari multikolinearitas
2. Untuk mengetahui dampak dari adanya multikolinearitas dalam data
3. Untuk mengetahui cara mendeteksi ada tidaknya multikolinearitas antar variabel
bebas pada analisis regresi
4. Untuk mengetahui beberapa cara yang dapat dilakukan untuk mengatasi masalah
multikolinearitas
1.

2
BAB II

PEMBAHASAN

2.1 Pengertian Multikolinearitas

Multikolinearitas atau kolinearitas ganda pertama kali dikemukakan oleh


Ragnan Frisch dalam bukunya yang berjudul “Statistical Conflurnce Analysis by
Means Complete Regression Systems” pada tahun 1934.Variabel ekonomi memiliki
kecenderungan bergerak secara bersama-sama sepanjang waktu. Kecenderungan
faktor-faktor dalam deret waktu dapat menjadi penyebab terjadinya multikolinearitas.
Menurut Frisch, suatu model regresi dikatakan terkena multikoliniearitas bila terjadi
hubungan linier yang sempurna (perfect) atau pasti (exact) di antara beberapa atau
semua variabel bebas dari suatu model regresi. Akibatnya akan kesulitan untuk dapat
melihat pengaruh variabel penjelas terhadap variabel yang dijelaskan.
Multikolinearitas adalah adanya hubungan linear yang sempurna di antara beberapa
atau semua variabel bebas dalam model regresi. Penyebab multikolinearitas adalah
adanya korelasi atau hubungan yang kuat antara dua variabel bebas atau lebih, dalam
sebuah model regresi berganda. Bedasarkan hubungan yang terjadi antara variabel-
variabel bebas, multikolinearitas dibedakan menjadi dua:
a. Multikolinearitas Sempurna
Hubungan linear yang sempurna terjadi apabila berlaku hubungan sebagai
berikut:

dimana 1,2,3,.....k seluruhnya tidak sama dengan nol (1 ≠ 0,i = 1,2,3,......k). Untuk
mengetahui multikolinearitas sempurna dimisalkan 2≠0, sehingga persamaan X2
dapat ditulis sebagai berikut:

Persamaan tersebut menunjukkan bagaimana X2 berhubungan secara linear


sempurna dengan sisa variabel lainnya.

3
b. Multikolinearitas kurang sempurna
Multikolinearitas kurang sempurna terjadi jika berlaku suatu hubungan sebagai
berikut:

dimana i adalah galat sisa dengan syarat galat yang saling bebas dan menyebar
normal i ~ N (0,2), untuk mengetahui adanya multikolinearitas tidak sempurna,
maka dimisalkan 2≠0, sehingga persamaan X2 dapat ditulis sebagai berikut:

yang menunjukkan bahwa X2 tidak berhubungan linear sempurna dengan sisa variabel
lainnya , sebab tergantung pada i

2.2 Dampak Multikolinearitas

Dampak multikolinearitas dapat mengakibatkankoefisien regresi yang


dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat
memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel bebas
yang bersangkutan. Dalam banyak hal masalah multikolinearitas dapat
menyebabkan uji T menjadi tidak signifikan padahal jika masing-masing variabel
bebas diregresikan secara terpisah dengan variabel tak bebas (simple regression)
uji T menunjukkan hasil yang signifikan.

2.3 Cara Mendeteksi Multikolinearitas

Ada beberapa cara untuk mengetahui ada tidaknya multikolinearitas,


diantaranya :
a. Nilai korelasi (korelasi antar variabel bebas)
Uji multikolinearitas bertujuan untuk menguji apakah ditemukan adanya
korelasi antar variabel bebas (independen) pada model. Asumsi multikolinearitas

4
mengharuskan tidak adanya korelasi yang sempurna atau besar diantara variabel-
variabel independen. Analisis koefisien korelasi bertujuan untuk mempelajari apakah
ada hubungan antara dua variabel. Koefisien korelasi antar variabel independen
haruslah lemah (dibawah 0.5). Jika korelasi kuat, terjadilah problem
multikolinearitas.

b. Variance Inflation Faktor (VIF) dan Tolerance


Metode untuk menguji adanya multikolinearitas dapat dilihat pada tolerance
value atau variance inflation factor (VIF). Kedua ukuran ini menunjukkan setiap
variabel independen manakah yang dijelaskan oleh variabel independen lainnya.
Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak
dijelaskan oleh variabel independen lainnya. Nilai tolerance yang rendah sama
dengan nilai VIF yang tinggi. Nilai VIF dapat diperoleh dengan rumus berikut :
1
VIF =
Tolerance

Batas tolerance value adalah 0,10 atau nilai VIF adalah 10. Jika VIF > 10 dan
nilai tolerance < 0.10, maka tejadi multikolinearitas tinggi antar variabel bebas
dengan variable bebas lainnya. Jika VIF < 10 dan nilai tolerance > 0.10, maka dapat
diartikan tidak terdapat multikolinearitas pada penelitian tersebut. Regresi yang baik
memiliki VIF disekitar angka 1 (satu) dan mempunyai angka Tolerance mendekati 1.

2.4 Cara Mengatasi Multikolinearitas

Masalah multikolinearitas dapat dihilangkan dengan menempuh beberapa cara,


diantara sebagai berikut:
a. Menambahkan data yang baru
Penambahan sampel baru dapat digunakan untuk mengatasi multikolinearitas.
Oleh karena adanya kolinearitas merupakan gambaran sampel, ada kemungkinan
bahwa untuk sampel lainnya yang mencakup variabel-variabel yang sama, persoalan
multikolinearitas mungkin tidak seserius seperti sampel sebelumnya.

5
b. Menghilangkan satu atau beberapa variable bebas
Pada permasalahan multikolinearitas yang serius, salah satu hal yang mudah
untuk dilakukan ialah mengeluarkan salah satu variabel yang berkorelasi tinggi
dengan variable lainnya.
c. Estimasi Regresi Ridge
Estimasi Ridge untuk koefisien regresi dapat diperoleh dengan menyelesaikan
suatu bentuk dari persamaan normal regresi. Asumsikan bahwa bentuk standar dari
model regresi linear ganda adalah sebagai berikut:

Parameter penting yang membedakan regresi ridge dari metode kuadrat terkecil
adalah c. Tetapan bias c yang relatif kecil ditambahkan pada diagonal utama matriks
X′X, sehingga koefisien estimator regresi ridge dipenuhi dengan besarnya tetapan
bias c.

2.4 Contoh Kasus

Berikut ini akan diuji multikolinieritas sebuah model regresi dengan variabel
Kepuasan Kerja (X1), Gaya Kepemimpinan (X2), dan Motivasi (X3). Variabel
dependen adalah kinerja (Y). Data dikumpulkan dari angket dengan jumlah sampel
sebanyak 60 orang pegawai. Data ditampilkan sebagai berikut :
NO X1 X2 X3 Y 13 50 63 74 56
1 55 76 83 65 14 52 71 87 64
2 60 82 92 70 15 56 82 84 66
3 61 80 77 70 16 53 72 79 65
4 53 70 74 60 17 60 85 92 70
5 62 88 97 70 18 56 76 86 67
6 62 72 77 71 19 54 65 80 62
7 54 78 86 64 20 53 74 72 57
8 59 72 90 68 21 52 75 75 55
9 64 81 96 72 22 62 80 95 70
10 55 74 90 66 23 65 72 96 66
11 53 65 85 64 24 58 70 82 63
12 65 84 92 72 25 60 85 86 63

6
26 64 88 96 74
27 60 84 98 72
28 64 89 82 75
29 64 85 92 72
30 58 78 76 67
31 60 77 86 68
32 54 78 86 64
33 39 52 55 41
34 64 89 96 74
35 54 75 79 62
36 57 84 82 66
37 60 74 88 69
38 54 69 80 61
39 53 76 81 64
40 63 87 97 71
41 71 58 102 79
42 51 72 81 58
43 64 87 95 69
44 65 71 96 72
45 54 81 82 64
46 60 83 79 68
47 64 72 86 72
48 60 81 86 70
49 55 82 78 64
50 64 86 93 72
51 49 67 74 55
52 46 66 74 58
53 58 82 78 67
54 51 63 83 58
55 63 93 96 71
56 58 75 80 65
57 50 77 73 56
58 55 68 80 58
59 57 69 81 64
60 61 87 92 68

7
Penyelesaian

 Lakukan analisis regresi dengan langkah-langkah : Analyze – Regression – Linier

 Masukkan variabel kepuasan kerja, gaya kepemimpinan dan motivasi ke dalam


kotak independent variable, dan kinerja ke kotak dependent variable

 Klik Statistik, kemudian beri tanda pada Covariance matrix dan collinierity
diagnosics

 Klik Continue, lalu OK

 Selanjutnya, review hasil

Model Summary

Adjusted Std. Error of


Model R R Square R Square the Estimate
1 .931a .867 .860 2.38113
a. Predictors: (Constant), MOT, GY_KEP, KEP

8
Coefficient Correlationsa

Model MOT GY_KEP KEP


1 Correlations MOT 1.000 -.123 -.726
GY_KEP -.123 1.000 -.291
KEP -.726 -.291 1.000
Covariances MOT .004 .000 -.004
GY_KEP .000 .002 -.001
KEP -.004 -.001 .009
a. Dependent Variable: KINERJA

Perhatikan nilai koefisien determinasi sebesar 0.931 yang mendekati 1, namun


secara individual melalui uji t dua variabel : kepuasan kerja dan motivasi yang
berpengaruh signifikan, sementara gaya kepemimpinan memiliki nilai sig 0.70 (sig >
0.05)
Nilai VIF (variance index factor) tidak menunjukkan adanya multikolinieritas
(VIF kurang dari 10), sementara tolerance juga tidak ada kurang dari 0.10. Deteksi
multiko melalui dua uji menunjukkan tidak adanya multiko, namun perhatikan output
selanjutnya
Pada bagian Coeffisien correlation, Korelasi antara motivasi dengan kepuasan
kerja tinggi yaitu sebesar -0.726. Korelasi antar independen ini berada dalam kategori
kuat sehingga meski nilai VIF dan Tolerance tidak mengindikasikan adanya masalah
multikolinier namun dapat dipastikan hal ini menyebabkan tidak signifikannya
pengaruh gy kepemimpinan terhadap kinerja

Meregresikan Prediktor secara Bergantian

9
Alternatif uji untuk kasus di atas adalah dengan meregresikan predictor secara
bergantian. Kriteria model tidak terkena multiko adalah ketika nilai R Square untuk
masing-masing predictor tidak melebihi model utama.
- Model Utama :
Kinerja = Kepuasan + gaya kep + Motivasi
- Model perbandingan :
Kepuasan = kinerja + gaya kep + motivasi
Gaya kep = kinerja + kepuasan + Motivasi
Motivasi = kinerja + kepuasan kerja + gaya kep

Langkah Uji
Lakukan uji regresi dengan menempatkan variabel independen menjadi
dependen secara bergantian. dengan demikian akan dihasilkan output 4 model regresi
(1 model utama dan 3 model perbandingan).

Interprestasi
Model Utama atau Kinerja

Model Summary

Adjusted Std. Error of


Model R R Square R Square the Estimate
1 .931a .867 .860 2.38113
a. Predictors: (Constant), MOT, GY_KEP, KEP

Kepuasan sebagai dependen

Model Summary

Adjusted Std. Error of


Model R R Square R Square the Estimate
1 .925a .855 .847 2.21373
a. Predictors: (Constant), KINERJA, GY_KEP, MOT

Gaya kepemimpinan sebagai dependen

10
Model Summary

Adjusted Std. Error of


Model R R Square R Square the Estimate
1 .599a .359 .325 6.89884
a. Predictors: (Constant), MOT, KEP, KINERJA

Motivasi sebagai dependen

Model Summary

Adjusted Std. Error of


Model R R Square R Square the Estimate
1 .822a .676 .658 5.08047
a. Predictors: (Constant), GY_KEP, KEP, KINERJA

 Model Utama, R Square = 0.867


 Kepuasan sebagai dependen, R Square = 0.855
 Gaya kepemimpinan sebagai dependen, R Square = 0.359
 Motivasi sebagai dependen, R Square = 0.676

Dari perbandingan 4 model ini dapat diketahui bahwa model utama memiliki R
Square lebih besar dibanding model perbandingan lainnya. Dengan demikian dapat
dinyatakan model tidak terkena masalah Multikolinier

BAB III

11
PENUTUP

3.1 Kesimpulan

Adapun kesimpulan yang dapat ditarik dari makalah ini ialah :


1. Multikolinearitas adalah adanya hubungan linear yang sempurna di antara
beberapa atau semua variabel bebas dalam model regresi.
2. Dampak multikolinearitas dapat mengakibatkan koefisien regresi yang
dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat
memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel
bebas yang bersangkutan.
3. Ada beberapa cara untuk mengetahui ada tidaknya multikolinearitas, yaitu : Nilai
korelasi (korelasi antar variabel bebas) dan Variance Inflation Faktor (VIF) dan
Tolerance
4. Masalah multikolinearitas dapat dihilangkan dengan menempuh beberapa cara,
diantara sebagai berikut:
a.Menambahkan data yang baru
b.Menghilangkan satu atau beberapa variable bebas
c.Estimasi Regresi Ridge

3.2 Saran
Demi kesempurnaan makalah ini, kritik serta saran yang bersifat membangun
sangat diharapkan agar makalah ini dapat menjadikan suatu pedoman untuk kalangan
umum. Penulis sebagai penyusun makalah ini memohon maaf atas segala kekurangan
dan kesalahan dalam penyusunan. Atas kritik, saran, dan perhatiannya, penulis
ucapkan terimakasih.

12
DAFTAR PUSTAKA

Prihastuti, Dwi. 2014. Analisis Generalized Two Stages Ridge Regression (GTSSR)
Untuk Mengatasi Multikolinearitas Dan Autokorelasi Beserta Aplikasinya
[Skripsi]. Pendidikan Matematika. Fakultas Matematika dan Ilmu Pengetahuan
Alam. Universitas Negeri Yogyakarta. Yogyakarta
Martha, Shantika. 2010. Multikolinearitas Pada Analisis Regresi Berganda. Jurusan
Matematika. Fakultas Matematika Dan Ilmu Pengetahuan Alam. Universitas
Tanjungpura. Pontianak.
ERIZA, VIENDIRA TRY. 2016. Uji Multikolinearitas dan Kesesuaian Model
Dalam Model Persamaan Struktural [Skripsi]. Fakultas Matematika Dan Ilmu
Pengetahuan Alam. Universitas Lampung. Bandar Lampung

13

Anda mungkin juga menyukai