Anda di halaman 1dari 9

BAB 1.

PENDAHULUAN

1.1 Latar Belakang Analisis regresi adalah teknik analisis statistik untuk mengetahui pola hubungan antara variabel tak bebas dengan variabel bebas. Hubungan antara variabel-variabel dalam regresi linier dinyatakan dalam model tersebut juga disebut model regresi klasik. Analisis regresi linear berganda digunakan untuk menganalisis hubungan linear antara dua atau lebih variabel bebas secara bersama-sama dengan satu variabel terikat. Adanya korelasi antar variabel yang cukup tinggi menimbulkan multikolinearitas yang menyebabkan model persamaan regresi yang diperoleh kurang layak. Multikolinieritas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independent dalam model regresi. Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang digunakan salang terkait dalam satu model regresi. Oleh karena itu, masalah multikolinieritas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independent. Salah satu ukuran untuk mendeteksi adanya multikolinearitas adalah dengan menguji koefisien korelasi (r) antar variabel prediktor. Jika koefisien korelasi diatas 0,85 maka diduga terdapat kasus multikolinearitas. Sebaliknya jika koefisien korelasi relatif rendah maka diduga tidak mengandung multikolinearitas. Deteksi ini diperlukan kehati-hatian. Masalah ini timbul terutama pada data time series dimana korelasi antar variabel prediktor tinggi. Untuk mengatasi masalah multikolinieritas tersebut, ada beberapa solusi. Salah satunya adalah dengan menerapkan analisis regresi bertatar (stepwise regression). . Model

1.2 Rumusan Masalah 1.2.1 Apakah yang dimaksud dengan multikolinieritas ? 1.2.2 Bagaimana cara mengidentifikasi adanya multikolinieritas ? 1.2.3 Apakah dampak dari adanya multikolinieritas ? 1.2.4 Bagaimana cara mengatasi masalah multikolinieritas dengan

menggunakan stepwise regression ?

1.3 Tujuan 1.3.1 Untuk mengetahui apa yang dimaksud dengan multikolinieritas. 1.3.2 Untuk mengetahui cara mengidentifikasi adanya multikolinieritas. 1.3.3 Untuk mengetahui dampak dari adanya multikolinieritas. 1.3.4 Untuk mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression.

1.4 Manfaat 1.4.1 Dapat mengetahui apa yang dimaksud dengan multikolinieritas. 1.4.2 Dapat mengetahui cara mengidentifikasi adanya multikolinieritas. 1.4.3 Dapat mengetahui dampak dari adanya multikolinieritas. 1.4.4 Dapat mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression.

BAB 2. TINJAUAN PUSTAKA

Penyimpanan

asumsi

model

klasik

yang

pertama

adalah

adanya

multikolinieritas dalam model regresi yang dihasilkan. Artinya, antar variabel independent yang terdapat dalam model memiliki hubungan yang sempurna atau mendekati sempurna (koefisien korelasinya tinggi atau bahkan 1)

(Algifari,2011:84). Konsekuensinya yang sangat penting bagi model regresi yang mengandung multikolinieritas adalah bahwa kesalahan standar estimasi yang cenderung meningkat dengan bertambahnya variabel independent, tingkat signifikan yang digunakan untuk menolak hipotesis nol akan semakin besar, dan probabilitas menerima hipotesis yang salah (kesalahan ) juga akan semakin besar. Akibatnya model regresi yang diperolaeh tidak valid untuk menafsir nilai variabel independen (Algifari,2011:84). Diagnosis secara sederhana terhadap adanya multikolinieritas di dalam model regresi adalah sebagai berikut : 1. Melalui nilai thitung , R2 , dan F RATIO. Jika R2 tinggi, nilai F RATIO tinggi, sedangakan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan ( nilai thitung sangat rendah), makan kemungkinan terdapat multikolinieritas dalam model tersebut. 2. Menentukan koefisien korelasi antara variabel independent yang satu dengan variabel independent yang lain. Jika antara dua variabel independent memiliki korelasi yang spesifik (misalnya, koefisien korelasi yang tunggi antara variabel independent atau tanda koefisien korelasi variabel independent yang berbeda dengan tanda koefisien regresinya), maka di dalam model regresi tersebut multikolinieritas.

3. Membuat persamaan regresi antar variabel independent. Jika koefisien regresinya signifikan, maka dalam model terdapat multikolinieritas (Algifari,2011:84). Regresi Bertatar merupakan salah satu metode pemilihan peubah dalam analisis regresi berganda yang bertujuan untuk mereduksi peubah penjelas demi memperoleh persamaan regresi terbaik. Terdapat tiga prosedur pemilihan dalam metode ini, yaitu Backward Elimination Procedure, ForwardSelection Procedure, dan Stepwise Procedure. Metode Backward Elimination diawali dengan menghitung persamaan regresi dengan menggunakan semua peubah penjelas, dan secara bertahap mengeluarkannya dari model berdasarkan pengaruhnya terhadap respon. Sedangkan metode Forward Selection dan Stepwise Procedure menempuh arah yang berlawanan. Kedua metode ini membangun model dengan memasukkan peubah penjelas satu per satu, hingga diperoleh model regresi yang memuaskan. (Ariyat,AR, 2008) Perbedaannya adalah pada Stepwise Procedure dilakukan pemeriksaan ulang pada tiap langkahnya, apakah peubah penjelas yang sudah masuk dalam model perlu dikeluarkan lagi atau tidak. Hal ini dilakukan dengan cara menghitung nilai-F parsial setiap peubah dalam model. Nilai ini menunjukkan seberapa besar kontribusi yang diberikan oleh masing masing peubah penjelas terhadap peubah respon. Jika nilai-F parsial suatu peubah lebih kecil dari batas yang sudah ditetapkan, maka peubah tersebut dikeluarkan dari model. (Draper & Smith 1992).

BAB 3. PEMBAHASAN

1.1 Pengertian Multikolinieritas Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris:

Multicollinearity) adalah adanya hubungan linear antara peubah bebas X dalam Model Regresi Ganda Jika hubungan linear antar peubah bebas X dalam Model Regresi Ganda adalah korelasi sempurna maka peubah-peubah tersebut berkolinearitas ganda sempurna (Bahasa Inggris : perfect multicollinearity). Sebagai ilustrasi, misalnya dalam menduga faktor-faktor yang memengaruhi

konsumsi per tahun dari suatu rumah tangga, dengan model regresi ganda sebagai berikut : Y=0+1X1+2X2+E dimana : X1 : pendapatan per tahun dari rumah tangga X2 : pendapatan per bulan dari rumah tangga Peubah X1 dan X2 berkolinearitas sempurna karena X1 = 12X2. Jika kedua peubah ini dimasukkan ke dalam model regresi, akan timbul masalah Kolinearitas Sempurna, yang tidak mungkin diperoleh pendugaan koefisien parameter regresinya. Jika tujuan pemodelan hanya untuk peramalan nilai Y (peubah respon) dan tidak mengkaji hubungan atau pengaruh antara peubah bebas (X) dengan peubah respon (Y) maka masalah multikolinearitas bukan masalah yang serius.Seperti jika menggunakan Model ARIMA dalam peramalan, karena korelasi antara dua parameter selalu tinggi, meskipun melibatkan data sampel dengan jumlah yang besar.Masalah multikolinearitas menjadi serius apabila digunakan unruk mengkaji hubungan antara peubah bebas (X) dengan peubah respon (Y) karena simpangan baku koefisiennya regresinya tidak siginifikan sehingga sulit memisahkan pengaruh dari masing-masing peubah bebas.

1.2 Identifikasi Adanya Multikolinieritas a. Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau lebih variabel bebas dalam model. b. Mencari nilai Condition Index (CI). Condition indek yang bernilai lebih dari 30 mengindentifikasikan adanya multikolineritas. c. Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL), Eigenvalue, dan yang paling umum digunakan adalah Varians Inflation Factor (VIF). nilai VIF > 10 mengindentifikasi adanya multikolinieritas.

d. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati. e. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif. f. Kolinearitas seringkali diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien korelasi sederhana (korelasi derajat nol) juga tinggi, tetapi tak satu pun/ sedikit sekali koefisien regresi parsial yang signifikan secara individu. Di pihak lain, uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol. g. Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. Untuk meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif rendah. h. Untuk mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda, tidak hanya melihat koefisien korelasi sederhana, tapi juga koefisien korelasi parsial. i. Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel X yang mana berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa variabel X dan menghitung R2 yang cocok, yang bisa disebut .

1.3 Dampak Multikolinieritas 1. Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih kecil sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya. pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan

tidak mencerminkan nilai yang sebenarnya dimana sebagian koefisien cenderung over estimate dan yang lain under estimate 2. Walaupun koefisien regresi dari variabel X dapat ditentukan

(determinate), tetapi kesalahan standarnya akan cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel bebas. 3. Karena besarnya kesalahan standar, selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar. 4. Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah akan meningkat. 5. Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap perubahan dalam data. 6. Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang tinggi, tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang penting secara statistik. 1.4 Cara Mengatasi Masalah Multikolinieritas dengan Cara Stepwise Regression

Metode eliminasi langkah mundur mulai dengan regresi terbesar dengan menggunakan semua peubah, dan secara bertahap mengurangi banyaknya peubah didalam persamaa sampai suatu keputusan dicapai untuk

menggunakan persamaan yang diperoleh. Prosedur seleksi bertatar berusaha me4ncapai kesimpulan yang serupa namun dengan menempuh arah yang berlawanan, yaitu menyusupkan peubah satu demi satu sampai diperoleh persamaan regresi yang memuaskan. Urutan penyisipannya ditentukan dengan menggunakan koefisian korelasi parsial sebagai ukuran pentingnya peubah yang masih diluar persamaan. Prosedur ini merupakan salah satu prosedur terbaik untuk menyeleksi peubah. Prosedur ini lebih menghemat waktu-komputer dibandingkan metode metode yang lainnya dan juga

mencegah kita memasukkan lebih banyak peubah x dari pada yang diperlukan sambil memperbaiki persamaannya pada setiap tahap.