Anda di halaman 1dari 3

Analisis regresi linier berganda adalah hubungan secara linear antara dua atau lebih variabel independen (X1,

X2,.Xn) dengan variabel dependen (Y). Analisis ini untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif dan untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan. Data yang digunakan biasanya berskala interval atau rasio. Persamaan regresi linear berganda sebagai berikut:

Y = a + b1X1+ b2X2+..+ bnXn


Keterangan: Y = Variabel dependen (nilai yang diprediksikan) X1 dan X2 = Variabel independen a = Konstanta (nilai Y apabila X1, X2..Xn = 0) = Koefisien regresi (nilai peningkatan ataupun penurunan)
Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independen dalam model regresi. Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independen. Indikasi terdapat masalah multikolinearitas dapat kita lihat dari kasus-kasus sebagai berikut: 1. Nilai R2 yang tinggi (signifikan), namun nilai standar error dan tingkat signifikansi masing-masing variabel sangat rendah. 2. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati. 3. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif. Memang belum ada kriteria yang jelas dalam mendeteksi masalah multikolinearitas dalam model regresi linier. Selain itu hubungan korelasi yang tinggi belum tentu berimplikasi terhadap masalah multikolinearitas. Tetapi kita dapat melihat indikasi multikolinearitas dengan tolerance value (TOL), eigenvalue, dan yang paling umum digunakan adalah varians inflation factor (VIF). Hingga saat ini tidak ada kriteria formal untuk menentukan batas terendah dari nilai toleransi atau VIF. Beberapa ahli berpendapat bahwa nilai toleransi kurang dari 1 atau VIF lebih besar dari 10 menunjukkan multikolinearitas signifikan, sementara itu para ahli lainnya menegaskan bahwa besarnya R2 model dianggap mengindikasikan adanya multikolinearitas. Klein (1962) menunjukkan bahwa, jika VIF lebih besar dari 1/(1 R2) atau nilai toleransi kurang dari (1 R2), maka multikolinearitas dapat dianggap signifikan secara statistik.

Uji multikolinearitas digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi klasik multikolinearitas yaitu adanya hubungan linear antar variabel independen dalam model regresi. Prasyarat yang harus terpenuhi dalam model regresi adalah tidak adanya multikolinearitas. Ada beberapa metode pengujian yang bisa digunakan diantaranya yaitu 1) dengan melihat nilai inflation factor (VIF) pada model regresi, 2) dengan membandingkan nilai koefisien determinasi individual (r2) dengan nilai determinasi secara serentak (R2), dan 3) dengan melihat nilai eigenvalue dan condition index. Pada pembahasan ini akan dilakukan uji multikolinearitas dengan melihat nilai inflation factor (VIF) pada model regresi dan membandingkan nilai koefisien determinasi individual (r2) dengan nilai determinasi secara serentak (R2). Menurut Santoso (2001), pada umumnya jika VIF lebih besar dari 5, maka variabel tersebut mempunyai persoalan multikolinearitas dengan variabel bebas lainnya.

a) Melihat nilai inflation factor (VIF) pada model regresi b) Dengan membandingkan nilai koefisien determinasi individual (r2) dengan
nilai determinasi secara serentak (R2) Dalam metode ini, cara yang ditempuh adalah dengan meregresikan setiap variabel independen dengan variabel independen lainnya, dengan tujuan untuk mengetahui nilai koefisien r2 untuk setiap variabel yang diregresikan. Selanjutnya nilai r2 tersebut dibandingkan dengan nilai koefisien determinasi R2. Kriteria pengujian yaitu jika r2 > R2 maka terjadi multikolinearitas dan jika r2 < R2 maka tidak terjadi multikolinearitas.
Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil estimasi regresi yang dilakukan benar-benar bebas dari adanya gejala heteroskedastisitas, gejala multikolinearitas, dan gejala autokorelasi. Model regresi akan dapat dijadikan alat estimasi yang tidak bias jika telah memenuhi persyaratan BLUE (best linear unbiased estimator) yakni tidak terdapat heteroskedastistas, tidak terdapat multikolinearitas, dan tidak terdapat autokorelasi ( Sudrajat 1988 : 164). Jika terdapat heteroskedastisitas, maka varian tidak konstan sehingga dapat menyebabkan biasnya standar error. Jika terdapat multikolinearitas, maka akan sulit untuk mengisolasi pengaruh-pengaruh individual dari variabel, sehingga tingkat signifikansi koefisien regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan penaksir masih tetap bias dan masih tetap konsisten hanya saja menjadi tidak efisien. Oleh karena itu, uji asumsi klasik perlu dilakukan. Pengujian-pengujian yang dilakukan adalah sebagai berikut : 1.Uji Asumsi Klasik Multikolinieritas Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dan residual satu pengamatan ke pengamatan yang lain. jika varians dari residual satu pengamatan ke pengamatan yang lain tetap, maka disebut homoskedastisitas dan jika berbeda

disebut heteroskedastisitas. Model regresi yang baik adalah yang homoskedastisitas atau tidak terjadi heteroskedastisitas. Uji heteroskedastisitas dilakukan dengan menggunakan uji Glejser, yang dilakukan dengan meregresikan nilai absolut residual yang diperoleh dari model regresi sebagai variabel dependen terhadap semua variabel independen dalam model regresi. Apabila nilai koefisien regresi dari masing-masing variabel bebas dalam model regresi ini tidak signifikan secara statistik, maka dapat disimpulkan tidak terjadi heteroskedastisitas (Sumodiningrat. 2001 : 271). 2.Uji Asumsi Klasik Heteroskedasitisitas Uji multikolinearitas bertujuan untuk menguji apakah dalam model regresi ditemukan adanya korelasi antar variabel bebas (independen). Dalam model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebas. Uji Multikolinearitas dilakukan dengan melihat nilai tolerance dan variance inflation factor (VIF) dari hasil analisis dengan menggunakan SPSS. Apabila nilai tolerance value lebih tinggi daripada 0,10 atau VIF lebih kecil daripada 10 maka dapat disimpulkan tidak terjadi multikolinearitas (Santoso. 2002 : 206). 3.Uji Asumsi Klasik Autokorelasi Uji Autokorelasi bertujuan menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1 (sebelumnya). Jika terjadi korelasi maka dinamakan ada problem autokorelasi. Model regresi yang baik adalah regresi yang bebas dari autokorelasi Uji autokorelasi dilakukan dengan menggunakan uji Durbin-Watson (D-W), dengan tingkat kepercayaan = 5%. Apabila D-W terletak antara -2 sampai +2 maka tidak ada autokorelasi (Santoso. 2002 : 219)