Anda di halaman 1dari 4

Analisis Regresi Linier Berganda

Untuk mengukur besarnya pengaruh variabel bebas terhadap variabel tergantung dan
memprediksi variabel tergantung dengan menggunakan variabel bebas. Gujarati (2010)
mendefinisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut
sebagai variabel yang diterangkan (the explained variabel) dengan satu atau dua variabel yang
menerangkan (the explanatory). Variabel pertama disebut juga sebagai variabel tergantung dan
variabel kedua disebut juga sebagai variabel bebas. Jika variabel bebas lebih dari satu, maka
analisis regresi disebut regresi linear berganda. Disebut berganda karena pengaruh beberapa
variabel bebas akan dikenakan kepada variabel tergantung. Hal ini disebut dengan judgmental
variabel.
Tujuan menggunakan analisis regresi ialah membuat estimasi rata-rata dan nilai variabel
tergantung dengan didasarkan pada nilai variabel bebas, menguji hipotesis karakteristik
dependensi, dan untuk meramalkan nilai rata-rata variabel bebas dengan didasarkan pada nilai
variabel bebas diluar jangkauan sample.
Beberapa macam asumsi klasik regresi linier berganda dapat dibagi menjadi empat yaitu:
1) autokorelasi terjadi bila terdapat hubungan yang signifikan antara dua data yang
sangat berdekatan. Autokorelasi merupakan gangguan pada fungsi regresi yang
berupa korelasi di antara faktor gangguan tersebut. Korelasi tersebut dinamakan
korelasi serial untuk data time series dan disebut autokorelasi spasial untuk data
cross section. Kenyataan yang diharapkan adalah autokorelasi itu tidak ada. Adanya
autokorelasi mengakibatkan estimatornya menjadi konsisten, tidak bias, tetapi tidak
efisien karena internal estimasinya akan melebar, sehingga daya prediksinya
menjadi under estimate dan selanjutnya akan menurunkan Ssres yang pada akhirnya
menjadikan t dan F yang diperoleh tidak valid.
Keberadaan autokorelasi dapat diidentifikasi melalui analisis korelasi serial ret, et-1,
bila n tergolong kecil. Bila korelasinya signifikan atau mendekati 1 atau –1, berarti
terdapat otokorelasi. Sedangkan bila n tergolong besar, maka digunakan uji Durbin
Watson (Algifari, 2000)
TABEL3.2 DURBIN WATSON

54 1. Apabila pada regresi teruji adanya multikolinearitas.000-1.90 Kesimpulan Ada autokorelasi Tidak ada kesimpulan Tidak ada autokorelasi Tidak ada kesimpulan Ada autokorelasi Adapun otokorelasi yang digunakan dalam penelitian ini merupakan otokorelasi cross section. atau sebaliknya. Nilai VIF akan semakin baik bila semakin mendekati angka 1. c) time lag pada variabel dependen. Interpretasi untuk menilai keberadaan multikolinearitas adalah sebagai berikut: a) Bila nilai VIF terletak di antara 1. multikolinearitas dapat menyebabkan naik atau turunnya pada peramalan koefisien regresi. yaitu data pada waktu berikutnya berkaitan dengan keberadaan data pada waktu sebelumnya. b) Bila nilai VIF terletak di antara 1. sehingga nilai tolerance juga akan semakin baik bila semakin mendekati angka 1. maka dapat terjadi perubahan tanda koefisien regresi dari positif pada saat diuji dengan regresi sederhana.10 – 1.47 – 2. dan juga dapat menyebabkan penambahan variabel independen yang tidak berpengaruh sama sekali.10 1. dan terdapat multikolinearitas yang kecil. b) kesalahan bentuk fungsi yang digunakan.90 Lebih dari 2. Teknik untuk menguji multikolinearitas adalah dengan pengujian nilai VIF (variable inflation factor). Otokorelasi mungkin terjadi karena adanya: a) bias spesifikasi. Nilai VIF dihitung dengan rumus 1 / Tolerance.200 maka data variabel tersebut dianggap sempurna sehingga sangat layak pakai dan tidak terdapat multikolinearitas. .000 maka data variabel tersebut dianggap valid dan dapat diterima karena kesalahan yang ada tidak material.DW Kurang dari 1.46 2. 2) multikolinearitas dapat diuji pada model regresi apabila pada variabel terdapat pasangan variabel bebas yang saling berkorelasi kuat satu sama lain. menjadi negatif pada saat diuji dengan regresi berganda. yaitu ada variabel independen yang sebenarnya relevan tetapi tidak disertakan dalam peramalan atau tidak dikontrol.55 – 2. Di samping itu. seperti dipaksakan untuk menggunakan model linier.201-2.

Heterokedastitas mungkin terjadi karena adanya: a) error sebagai akibat dari adanya pengalaman belajar. Model regresi yang baik adalah: 1) tidak terdapat multikolinearitas. namun terdapat sedikit sekali multikolinearitas. Pada taraf ini data variabel tersebut sudah tidak diperbolehkan untuk dimasukkan dalam model.001-3.000 maka data variabel tersebut harus diperbaiki dan tidak diperbolehkan untuk dimasukkan dalam model karena terdapat kesalahan penyajian yang material. tidak material. 3) heterokedastisitas terjadi bila untuk setiap nilai variabel independen terdapat beberapa skor variabel dependen dengan variasi yang bebeda. t maupun F menjadi besar atau kecil sehingga hasil uji signifikansinya menjadi tidak mencerminkan keadaan yang sebenarnya. Asumsi bahwa garis regresi yang dihasilkan bersifat linear yaitu membentuk garis lurus yang berarti bahwa hubungan antara variabel independen dan variabel dependennya bersifat linear.000 maka data variabel tersebut perlu ditinjau ulang karena kemungkinan terdapat kesalahan penyajian yang cukup material dan terdapat sedikit multikolinearitas.c) Bila nilai VIF terletak di antara 2. maka hasil regresi akan menjadi bias secara berarti. Adanya heterokedastitas akan berakibat pada hal-hal sebagai berikut: a) regresi (b) masih BLUE (best linear unbiased estimator) b) Seb tidak minimum. e) Bila nilai VIF lebih tinggi dari 5.000 maka data variabel tersebut dianggap cukup valid dan layak digunakan karena kesalahan yang ada tidak begitu berpengaruh terhadap hasil akhir. Bila asumsi ini menyimpang jauh. . 4) normalitas terjadi bila nilai variabel independen dan variabel dependen berdistribusi normal atau mendekati normal. sehingga b menjadi tidak efisien c) daya prediksinya menurun d) R. dan b) perbaikan teknik pengumpulan data. d) Bila nilai VIF terletak di antara 3. Normalitas disebut juga dengan linearitas garis regresi. sehingga variansi error-nya menurun.001-5.

k adalah kemiringan dari bidang regresi (koefisien regresi) yang berhubungan dengan variabel Xk...2) tidak terdapat otokorelasi. 3) tidak terdapat heteroskedastitas. . Bentuk umum persamaan regresi linier berganda ialah sebagai berikut: Di mana: ßo = adalah perpotongan Y dalam bidang regresi.. . ßk = i=1. dan terdapat normalitas Analisis regresi linier berganda ialah suatu alat analisis dalam ilmu statistik yang berguna untuk mengukur hubungan matematis antara lebih dari 2 peubah.