Anda di halaman 1dari 9

BAB 1.

PENDAHULUAN

1.1 Latar Belakang
Analisis regresi adalah teknik analisis statistik untuk mengetahui pola
hubungan antara variabel tak bebas dengan variabel bebas. Hubungan antara
variabel-variabel dalam regresi linier dinyatakan dalam model . Model
tersebut juga disebut model regresi klasik.
Analisis regresi linear berganda digunakan untuk menganalisis hubungan
linear antara dua atau lebih variabel bebas secara bersama-sama dengan satu
variabel terikat. Adanya korelasi antar variabel yang cukup tinggi menimbulkan
multikolinearitas yang menyebabkan model persamaan regresi yang diperoleh
kurang layak.
Multikolinieritas adalah kondisi terdapatnya hubungan linier atau korelasi
yang tinggi antara masing-masing variabel independent dalam model regresi.
Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang digunakan
salang terkait dalam satu model regresi. Oleh karena itu, masalah multikolinieritas
tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel
independent. Salah satu ukuran untuk mendeteksi adanya multikolinearitas adalah
dengan menguji koefisien korelasi (r) antar variabel prediktor. Jika koefisien
korelasi diatas 0,85 maka diduga terdapat kasus multikolinearitas. Sebaliknya jika
koefisien korelasi relatif rendah maka diduga tidak mengandung multikolinearitas.
Deteksi ini diperlukan kehati-hatian. Masalah ini timbul terutama pada data time
series dimana korelasi antar variabel prediktor tinggi.
Untuk mengatasi masalah multikolinieritas tersebut, ada beberapa solusi.
Salah satunya adalah dengan menerapkan analisis regresi bertatar (stepwise
regression).

1.2 Rumusan Masalah
1.2.1 Apakah yang dimaksud dengan multikolinieritas ?
1.2.2 Bagaimana cara mengidentifikasi adanya multikolinieritas ?
1.2.3 Apakah dampak dari adanya multikolinieritas ?
1.2.4 Bagaimana cara mengatasi masalah multikolinieritas dengan
menggunakan stepwise regression ?

1.3 Tujuan
1.3.1 Untuk mengetahui apa yang dimaksud dengan multikolinieritas.
1.3.2 Untuk mengetahui cara mengidentifikasi adanya multikolinieritas.
1.3.3 Untuk mengetahui dampak dari adanya multikolinieritas.
1.3.4 Untuk mengetahui cara mengatasi masalah multikolinieritas dengan
menggunakan stepwise regression.

1.4 Manfaat
1.4.1 Dapat mengetahui apa yang dimaksud dengan multikolinieritas.
1.4.2 Dapat mengetahui cara mengidentifikasi adanya multikolinieritas.
1.4.3 Dapat mengetahui dampak dari adanya multikolinieritas.
1.4.4 Dapat mengetahui cara mengatasi masalah multikolinieritas dengan
menggunakan stepwise regression.













BAB 2. TINJAUAN PUSTAKA

Penyimpanan asumsi model klasik yang pertama adalah adanya
multikolinieritas dalam model regresi yang dihasilkan. Artinya, antar variabel
independent yang terdapat dalam model memiliki hubungan yang sempurna atau
mendekati sempurna (koefisien korelasinya tinggi atau bahkan 1)
(Algifari,2011:84).
Konsekuensinya yang sangat penting bagi model regresi yang mengandung
multikolinieritas adalah bahwa kesalahan standar estimasi yang cenderung
meningkat dengan bertambahnya variabel independent, tingkat signifikan yang
digunakan untuk menolak hipotesis nol akan semakin besar, dan probabilitas
menerima hipotesis yang salah (kesalahan ) juga akan semakin besar. Akibatnya
model regresi yang diperolaeh tidak valid untuk menafsir nilai variabel
independen (Algifari,2011:84).
Diagnosis secara sederhana terhadap adanya multikolinieritas di dalam model
regresi adalah sebagai berikut :
1. Melalui nilai t
hitung
, R
2
, dan F RATIO. Jika R
2
tinggi, nilai F RATIO
tinggi, sedangakan sebagian besar atau bahkan seluruh koefisien regresi
tidak signifikan ( nilai t
hitung
sangat rendah), makan kemungkinan terdapat
multikolinieritas dalam model tersebut.
2. Menentukan koefisien korelasi antara variabel independent yang satu
dengan variabel independent yang lain. Jika antara dua variabel
independent memiliki korelasi yang spesifik (misalnya, koefisien korelasi
yang tunggi antara variabel independent atau tanda koefisien korelasi
variabel independent yang berbeda dengan tanda koefisien regresinya),
maka di dalam model regresi tersebut multikolinieritas.
3. Membuat persamaan regresi antar variabel independent. Jika koefisien
regresinya signifikan, maka dalam model terdapat multikolinieritas
(Algifari,2011:84).
Regresi Bertatar merupakan salah satu metode pemilihan peubah dalam
analisis regresi berganda yang bertujuan untuk mereduksi peubah penjelas demi
memperoleh persamaan regresi terbaik. Terdapat tiga prosedur pemilihan dalam
metode ini, yaitu Backward Elimination Procedure, ForwardSelection Procedure,
dan Stepwise Procedure.
Metode Backward Elimination diawali dengan menghitung persamaan
regresi dengan menggunakan semua peubah penjelas, dan secara bertahap
mengeluarkannya dari model berdasarkan pengaruhnya terhadap respon.
Sedangkan metode Forward Selection dan Stepwise Procedure menempuh arah
yang berlawanan. Kedua metode ini membangun model dengan memasukkan
peubah penjelas satu per satu, hingga diperoleh model regresi yang memuaskan.
(Ariyat,AR, 2008)
Perbedaannya adalah pada Stepwise Procedure dilakukan pemeriksaan
ulang pada tiap langkahnya, apakah peubah penjelas yang sudah masuk dalam
model perlu dikeluarkan lagi atau tidak. Hal ini dilakukan dengan cara
menghitung nilai-F parsial setiap peubah dalam model. Nilai ini menunjukkan
seberapa besar kontribusi yang diberikan oleh masing masing peubah penjelas
terhadap peubah respon. Jika nilai-F parsial suatu peubah lebih kecil dari batas
yang sudah ditetapkan, maka peubah tersebut dikeluarkan dari model. (Draper &
Smith 1992).





























BAB 3. PEMBAHASAN


1.1 Pengertian Multikolinieritas
Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris:
Multicollinearity) adalah adanya hubungan linear antara peubah bebas X dalam
Model Regresi Ganda Jika hubungan linear antar peubah bebas X dalam Model
Regresi Ganda adalah korelasi sempurna maka peubah-peubah tersebut
berkolinearitas ganda sempurna (Bahasa Inggris : perfect multicollinearity).
Sebagai ilustrasi, misalnya dalam menduga faktor-faktor yang memengaruhi
konsumsi per tahun dari suatu rumah tangga, dengan model regresi ganda sebagai
berikut :
Y=
0
+
1
X
1
+
2
X
2
+E
dimana :
X
1
: pendapatan per tahun dari rumah tangga
X
2
: pendapatan per bulan dari rumah tangga
Peubah X
1
dan X
2
berkolinearitas sempurna karena X
1
= 12X
2
. Jika kedua
peubah ini dimasukkan ke dalam model regresi, akan timbul masalah Kolinearitas
Sempurna, yang tidak mungkin diperoleh pendugaan koefisien parameter
regresinya.
Jika tujuan pemodelan hanya untuk peramalan nilai Y (peubah respon) dan
tidak mengkaji hubungan atau pengaruh antara peubah bebas (X) dengan peubah
respon (Y) maka masalah multikolinearitas bukan masalah yang serius.Seperti
jika menggunakan Model ARIMA dalam peramalan, karena korelasi antara dua
parameter selalu tinggi, meskipun melibatkan data sampel dengan jumlah yang
besar.Masalah multikolinearitas menjadi serius apabila digunakan unruk mengkaji
hubungan antara peubah bebas (X) dengan peubah respon (Y) karena simpangan
baku koefisiennya regresinya tidak siginifikan sehingga sulit memisahkan
pengaruh dari masing-masing peubah bebas.


1.2 Identifikasi Adanya Multikolinieritas
a. Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau lebih
variabel bebas dalam model.
b. Mencari nilai Condition Index (CI). Condition indek yang bernilai lebih
dari 30 mengindentifikasikan adanya multikolineritas.
c. Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value
(TOL), Eigenvalue, dan yang paling umum digunakan adalah Varians
Inflation Factor (VIF). nilai VIF > 10 mengindentifikasi adanya
multikolinieritas.
d. Perubahan kecil sekalipun pada data akan menyebabkan perubahan
signifikan pada variabel yang diamati.
e. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel
yang seharusnya memiliki pengaruh positif (nilai koefisien positif),
ditunjukkan dengan nilai negatif.
f. Kolinearitas seringkali diduga jika R
2
cukup tinggi (antara 0,7-1) dan
jika koefisien korelasi sederhana (korelasi derajat nol) juga tinggi, tetapi
tak satu pun/ sedikit sekali koefisien regresi parsial yang signifikan
secara individu. Di pihak lain, uji F menolak H
0
yang mengatakan
bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol.
g. Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan
kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai
kolinearitas dalam kasus spesifik. Untuk meletakkan persoalan agar
secara teknik, korelasi derajat nol yang tinggi merupakan kondisi yang
cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi
meskipun melalui korelasi derajat nol atau sederhana relaif rendah.
h. Untuk mengetahui ada tidaknya kolinearitas ganda dalam model regresi
linear berganda, tidak hanya melihat koefisien korelasi sederhana, tapi
juga koefisien korelasi parsial.
i. Karena multikolinearitas timbul karena satu atau lebih variabel yang
menjelaskan merupakan kombinasi linear yang pasti atau mendekati
pasti dari variabel yang menjelaskan lainnya, satu cara untuk
mengetahui variabel X yang mana berhubungan dengan variabel X
lainnya adalah dengan meregresi tiap X
i
atas sisa variabel X dan
menghitung R
2
yang cocok, yang bisa disebut .

1.3 Dampak Multikolinieritas
1. Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih kecil
sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya.
pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan
tidak mencerminkan nilai yang sebenarnya dimana sebagian koefisien
cenderung over estimate dan yang lain under estimate
2. Walaupun koefisien regresi dari variabel X dapat ditentukan
(determinate), tetapi kesalahan standarnya akan cenderung semakin besar
dengan meningkatnya tingkat korelasi antara peningkatan variabel bebas.
3. Karena besarnya kesalahan standar, selang keyakinan untuk parameter
populasi yang relevan cenderung untuk lebih besar.
4. Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai
dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk
menerima hipotesis yang salah akan meningkat.
5. Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi
adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat
sensitif terhadap perubahan dalam data.
6. Jika multikolinearitas tinggi, seseorang mungkin memperoleh R
2
yang
tinggi, tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir
yang penting secara statistik.
1.4 Cara Mengatasi Masalah Multikolinieritas dengan Cara Stepwise Regression

Metode eliminasi langkah mundur mulai dengan regresi terbesar dengan
menggunakan semua peubah, dan secara bertahap mengurangi banyaknya
peubah didalam persamaa sampai suatu keputusan dicapai untuk
menggunakan persamaan yang diperoleh. Prosedur seleksi bertatar berusaha
me4ncapai kesimpulan yang serupa namun dengan menempuh arah yang
berlawanan, yaitu menyusupkan peubah satu demi satu sampai diperoleh
persamaan regresi yang memuaskan. Urutan penyisipannya ditentukan
dengan menggunakan koefisian korelasi parsial sebagai ukuran pentingnya
peubah yang masih diluar persamaan. Prosedur ini merupakan salah satu
prosedur terbaik untuk menyeleksi peubah. Prosedur ini lebih menghemat
waktu-komputer dibandingkan metode metode yang lainnya dan juga
mencegah kita memasukkan lebih banyak peubah x dari pada yang diperlukan
sambil memperbaiki persamaannya pada setiap tahap.

Anda mungkin juga menyukai