Anda di halaman 1dari 13

MAKALAH EKONOMETRIKA

‘’ MULTIKOLINEARITAS ‘’

OLEH:

HARNAWANTI HASIM F1A2 16 024

IRMAYANTI F1A2 16 0

KOMANG AYU LESTARI F1A2 16 033

PROGRAM STUDI SI STATISTIKA


JURUSAN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS HALU OLEO
KENDARI
2019
KATA PENGANTAR

Dengan menyebut nama Allah SWT yang Maha Pengasih lagi Maha
Penyayang, penulis panjatkan puja dan puji syukur atas kehadirat-Nya, yang telah
melimpahkan rahmat, hidayah, dan inayah-Nya kepada penulis, sehingga penulis
dapat menyelesaikan makalah Mata Kuliah Ekonometrika mengenai
Multikolinearitas.

Makalah ini telah penulis susun dengan maksimal dan mendapatkan bantuan
dari berbagai pihak sehingga dapat memperlancar pembuatan makalah ini. Untuk itu
penulis menyampaikan banyak terima kasih kepada semua pihak yang telah
berkontribusi dalam pembuatan makalah ini.

Terlepas dari semua itu, penulis menyadari sepenuhnya bahwa masih ada
kekurangan baik dari segi susunan kalimat maupun tata bahasanya. Oleh karena itu
dengan tangan terbuka penulis menerima segala saran dan kritik dari pembaca agar
dapat memperbaiki makalah ini.

Akhir kata penulis berharap semoga makalah mata kuliah Ekonometrika


tentang Multikolinearitas ini dapat memberikan manfaat maupun pandangan terhadap
pembaca.

Kendari, September 2019

Penulis
DAFTAR ISI

HALAMAN SAMPUL ....................................................................................... I

KATA PENGANTAR ........................................................................................ ii

DAFTAR ISI ....................................................................................................... iii

BAB I PENDAHULUAN

1.1 Latar Belakang .................................................................................... 1

1.2 Rumusan Masalah .............................................................................. 2

1.3 Tujuan Penulisan ................................................................................. 2

BAB II PEMBAHASAN

2.1 Pengertian Multikolinearitas ............................................................... 4

2.2 Akibat-Akibat Multikolinearitas ......................................................... 5

2.3 Contoh Ilustrasi ................................................................................... 6

2.4 Mendeteksi Multikolinearitas .............................................................. 6

2.5 Penanggulangan Multikolinearitas ...................................................... 7

BAB III PENUTUP 8

3.1 Kesimpulan.......................................................................................... 9

3.2 Saran .................................................................................................... 10

DAFTAR PUSTAKA .......................................................................................... 11


BAB I
PENDAHULUAN
1.1 Latar Belakang
Analisis regresi adalah metode statistika yang digunakan untuk mengetahui
sejauh mana ketergantungan atau hubungan sebuah variabel respon (variabel tak
bebas) dengan sebuah atau lebih variabel prediktor (variabel bebas). Bila dalam
analisisnya hanya melibatkan satu variabel prediktor, maka analisis yang digunakan
adalah analisis regresi linear sederhana. Sedangkan bila dalam analisisnya melibatkan
dua atau lebih variabel prediktor, maka analisis yang digunakan adalah analisis
regresi linear berganda.
Dalam kehidupan sehari-hari, banyak sekali permasalahan yang melibatkan
analisis regresi linear berganda. Dalam analisis regresi yang memuat banyak variabel
prediktor, sering timbul masalah karena adanya hubungan antara dua atau lebih
variabel prediktornya. Variabel prediktor yang berkorelasi disebut kolinearitas ganda
(multicollinearity). (Soemartini, 2008)
Ketika terjadi multikolinearitas maka akan mengakibatkan suatu model
regresi menjadi tidak baik dijadikan sebagai penduga karena model yang digunakan
akan berbias. Untuk mendeteksi terjadinya multikolinearitas maka menggunakan uji
VIF (Variance inflation factors). Selanjutnya model yang terdeteksi adanya
multikolinearitas harus melakukan penanganan supaya modelnya menjadi non
multikolinearitas. Salah satu cara yang digunakan dalam mengatasi non
multikolinearitas adalah menggunakan Principal Component Analysis (PCA).
1.2 Rumusan Masalah
Yang menjadi rumusan masalah pada makalah ini yaitu :
a. Pengertian Multikolinearitas
b. Akibat-Akibat Multikolinearitas
c. Contoh Ilustrasi
d. Mendeteksi Multikolinearitas
e. Penanggulangan Multikolinearitas
1.3 Tujuan
Tujuan dari makalah ini yaitu :
a. Untuk Mengetahui Multikolinearitas
b. Untuk Mengetahui Akibat-Akibat Multikolinearitas
c. Untuk Mengetahui Contoh Ilustrasi
d. Untuk Mengetahui Mendeteksi Multikolinearitas
e. Untuk Mengetahui Penanggulangan Multikolinearitas
BAB II
kPEMBAHASAN
2.1 Pengertian Multikolinearitas
Salah satu bentuk asumsi regresi klasik adalah tidak terjadinya
multikolinearitas diantara variable-variabel eksplanatori. Arti dan hakekat dari
multikolineaaritas seperti yang dikemukakan oleh Ragnar Frish (1943) adalah adanya
hubungan yang sempurna anatara semua atau beberapa variable eksplanatori dalam
model regresi yang dikemukakan (Sudrajat, 1984).
Jika dari regresi k-variabel yaitu dari bentuk regresi dengan k-variabel
eksplanatori, x0, x1, ......xk ( dimana x0 =1 untuk semua nilai pengamatan ), maka

hubungan linier yang sempurna akan terjadi kalau dipenuhi syarat :


l0 x0  l0 x0  .......  lk xk  0

Dimana l0 , l1 ,.....lk adalah konstanta yang tidak perlu semuanya bernilai = 0 (Sudrajat,
1984).
Berkaitan dengan masalah multikoliniearitas, Sumodiningrat (1994: 281-182)
mengemukakan bahwa ada 3 hal yang perlu dibahas terlebih dahulu:
1. Multikoliniearitas pada hakekatnya adalah fenomena sampel. Dalam model
fungsi regresi populasi (Population Regression Function = PRF) diasumsikan
bahwa seluruh variabel bebas yang termasuk dalam model mempunyai
pengaruh secara individual terhadap variabel tak bebas Y, tetapi mungkin
terjadi bahwa dalam sampel tertentu.
2. Multikoliniearitas adalah persoalan derajat (degree) dan bukan persoalan jenis
(kind). Artinya bahwa masalah Multikoliniearitas bukanlah masalah mengenai
apakah korelasi di antara variabel-variabel bebas negatif atau positif, tetapi
merupakan persoalan mengenai adanya korelasi di antara variabelvariabel
bebas.
3. Masalah Multikoliniearitas hanya berkaitan dengan adanya hubungan linier di
antara variabel-variabel bebas Artinya bahwa masalah Multikoliniearitas tidak
akan terjadi dalam model regresi yang bentuk fungsinya berbentuk non-linier,
tetapi masalah Multikoliniearitas akan muncul dalam model regresi yang
bentuk fungsinya berbentuk linier di antara variabel-variabel bebas.
2.2 Akibat-akibat Multikolinearitas
Multikonearitas adalah adanya hubungan eksak linier antar variabel penjelas.
Multikonearitas diduga terjadi bila nilai R2 tinggi, nilai t semua variabel penjelas
tidak signifikan, dan nilai F tinggi.
Konsekuensi multikonearitas:
1. Kesalahan stkitar cenderung semakin besar dengan meningkatnya tingkat
korelasi antar variabel.
2. Karena besarnya kesalahan stkitar, selang keyakinan untuk parameter populasi
yang relevan cenderung lebih besar.
3. Taksiran koefisian dan kesalahan stkitar regresi menjadi sangat sensitif
terhadap sedikit perubahan dalam data.
Konsekuensi multikolinearitas adalah invalidnya signifikansi variable maupun
besaran koefisien variable dan konstanta. Multikolinearitas diduga terjadi apabila
estimasi menghasilkan nilai R kuadrat yang tinggi (lebih dari 0.8), nilai F tinggi, dan
nilai t-statistik semua atau hampir semua variabel penjelas tidak signifikan. (Gujarati,
2003)
Jika asumsi-asumsi model regresi linier dapat dipenuhi, maka estimator OLS
(ordinary least square) koefisien regresi akan linier, tidak berbias, dan mempunyai
varians yang minimum, singkatnya memenuhi standar BLUE (best linear
unbiasedestimator).

Adalah benar, bahwa kolinearitas tidak mengganggu pada varians yang


minimum dan estimator masih tetap BLUE dalam multikolinearitas tinggi, atau masih
efisien, tetapi hal ini tidaklah berarti, bahwa varians dari salah satu estimator akan
selalu kecil untuk setiap cuplikan yang diketahui.

Dalam multikolinearitassempurna seperti telah dikatakan di atas maka


estimator-estimator OLS tak dapat ditentukan dan variansnya tidak berbatas. Jika
multikolinearitas cukup tinggi tapi belum mencapai sempurna, maka akan terjadi
akibat-akibat berikut:

1. Walaupun estimator OLS dapat ditentukan, galat baku (standar error)-nya


akan menjadi lebih besar dengan semakin meningkatkan tingkat kolineariti
antar variabel,
2. Disebabkan oleh galat baku yang besar, maka selang kepercayaan (confident
interval) bagi parameter yang diduga akan semakin melebar,
3. Dengan selang kepercayaan yang semakin melebar dalam kasus
multikolinearitas yang tinggi, mungkin data cukup memenuhi tapi peluang
(probability) untuk menerima hipotesis yang salah (tipe galat dua = Type II
error) akan semakin menjadi besar,
4. Walaupun estmator OLS masih dapat ditentukan, tapi hasil yang diperoleh
dan galat bakunya sangat sensitif untuk berubah dengan berubahnya data.

Untuk menjelaskannya perhatikan dua tabel data hipotetik berikut dan hasil
perhitungannya untuk masing-masing tabel tersebut.

Tabel 7.2 data hipotesis regresi Y terhadap X1 dan X2

Y X1 X2
1 2 4
2 0 2
3 4 12
4 6 0
5 8 16

(a)
Y X1 X2
1 2 4
2 0 2
3 4 0
4 6 12
5 8 16

(b)
Hasil perhitungan dari tabel (a):
Yi = 1.1939 + 0.4463X1i + 0.0030X2i
(0.7737) (0.1848) (0.0851)
T = (1.5431) (2.4151) (0.0358)
R2 = 0.8151

R12 = 0.5523

Cov(B1,B2) = -0.000868

Persamaan garis regresi diatas menyatakan, bahwa tak ada satupun koefisien
regresi yang signifikan baik pada taraf 5% maupun 1% (B1 signifikan pada taraf 10%
menurut teka arah).

Tabel (b) dihasilkan dari tabel (a) yang diubah dengan mempertukarkan nilai
variabel X2 pada baris ke-3 dan ke-4 hasil perhitungan dari tabel (b);

Yi = 1.2108 + 0.4014X1i + 0.0270X2i . ...............( )

(0.7480)(0.2721) (0.1253)

t = (1.619) (1.475) (0.216)

R2 = 0.8143 r12 = 0.8285 cov(B1B2) = -0.0282

Hasil analisis menunjukkan bahwa B1 yang asalnya signifikan pada taraf 10%
sekarang jadi tidak signifikan lagi pada taraf yang sama. Juga terlihat, bahwa cov (
12 ) = 0.000868, pada model diatas menjadi -0.0282. semuanya ini menunjukkan
adanya peningkatan kolineritas, r12 yang asalnya 0.5523 sekarang menjadi 0.8285 .
hal yang sama pula galat baku (standard error) mrningkat pula nilainya.

5. Jika nilai multikolinearitas tinggi akan kita dapatkan koefisien determinasi R 2


yang tinggi, tapi tak ada satupunkoefision regresi yang signifikan. Jadi dari
model, R2 = 0.8143 yang berarti, bahwa 81 persen dari variansi Y diterangkan
oleh x 1 dan x 2. Jadi dengan adanya multikolinearitas kita tidak bisa
memisahkan pengaruh x 1 dan x 2secara individual terhadap Y .

2.4 Mendeteksi Multikolinearitas


Cara mengetahui adanya Multikolinearitas apabila variabel eksplanatori dalam
model regresi dua atau lebih

1. Kolineariti sering di trandai dengan nilai R2 yang tinggi (katakanlah 0,7


sampai 1,0), dan kemudian jika nilai-nilai koefisien korelasi sederhana (zero
order correlation) juga bernilai tinggi (artinya signifikan secara satistik pada
taraf tertentu), tapi Koefisien regresinya tidak satu pun yang signifikan
menurut uji-t. Koefisien determinasi R2 yang tinggi, menunjukkan, bahwa uji
F dari ANOVA akan bernilai tinggi pula (signifikan), hal ini berarti menolak
hipotesis yang menyatakan: 1   2   k  0 yang bertentangan dengan hasil
analisis uji untuk koefisien regresi.
2. Walaupun nilai-nilai korelasi sederhana dapat menunjang menunjukan adanya
kolineriti, tapi hal itu tidak berarti merupakan dasar bagi adanya gejala
multikolineariti, karena seringkali nilai koefisien korelasi sederhana yang
rendah, perhatikan model berikut:
Y j   0  1 x1i   2 x2 i   3 x3i   i

dan misalkan bahwa:

x3i  l1 x1i  l2 x2 i

di mana L1 dan L2 konstan, tapi tidak nol, jelaslah, bahwa X3 merupakan


kombinasi linear dari X1 dan X2 yang akan memberikan

R2 3.12 = 1.

dengan meminjamkan rumus terdahulu:

r312  r322  2r31r32r12


R23.12 =
1  r122
Tapi karena R23.12 = 1 yaitu karena ada gejala multikolineariti
Yang sempurna maka :
r312  r322  2r31r32r12
1=
1  r122
Dapat diikuti dengan mudah, akan memenuhi apabila r31 = 0.5, r32 = 0.5
dan juga r12 = 0.5 yang menunjukan, bahwa nilai koefisien korelasi
sederhana tidak tinggi tapi masih terjadi gejala multikolineariti.
3. Multikolinearitas di tentukan oleh koefisien korelasi sederhana tapi juga
ditentukan oleh koefisien korelasi partial. Jadi jika dari regresi Y terhadap
x1 , x2 dan x3 jika kemudian ditemukan R2y1.23, r2y2.13 dan r2y3.12 relatif rendah,

menunjukan bahwa variabel-variabel x1 , x2 dan x3 saling berkorelasi tinggi,


yang berarti pula, bahwa salah astu variabel tidak mempunyai kegunaan.
4. Karena gejala multikolineariti timbul oleh hubungan yang terjadi antar
variabel x , maka salah satu caranya adalah meregresikan setiap pasangan
variabel x dan carilah nilai R2
( k 2 )
Rx21, x 2 ......., xk
Fj = ( N k 1)
(1  Rx21 , x 2 ....xk

Dengan db =(k-2) ( N-k-1); N = jumlah pengamatan, k = jumlah variabel x


yang diregresikan R2 minasi untuk jumlah variabel x sebanyak k.

Jika F > Fj pada taraf tertentu ini berarti, bahwa x j tertentu berhubungan

dengan x lainnya. Jika F < F j maka x j tidak berkorelasi dengan x lainnya. Jika F j

signifikan kita harus mempertimbangkan apakah x j .

2.5 Penanggulangan Multikolinearitas


Apa yang dapat dikerjakan apabila

BAB III
PENUTUP
3.1 Kesimpulan
Multikolinearitas adalah suatu masalah yang timbul karena adanya
hubungan linear atau korelasi antar variabel bebas dalam analisis regresi linear
berganda. Adanya multikolinearitas berdampak pada koefisien regresi yang
dihasilkan oleh suatu model regresi linear berganda dan secara tidak langsung
akan berdampak pula pada hasil analisisnya.

3.2 Saran
DAFTAR PUSTAKA

Anda mungkin juga menyukai