Program Studi Pendidikan Matematika Jurusan Pendidikan Matematika dan Ilmu Pengetahuan Alam Fakultas Keguruan dan Ilmu Pendidikan Universitas Lambung Mangkurat Banjarmasin 2013
DAFTAR ISI
BAB I PENDAHULIAN
A. Latar Belakang
Analisis regresi merupakan salah satu teknik analisis data dalam statistika yang seringkali digunakan untuk mengkaji hubungan antara beberapa variabel dan meramal suatu variabel (Kutner, Nachtsheim dan Neter, 2004). Istilah regresi pertama kali dikemukakan oleh Sir Francis Galton (1822 1911), seorang antropolog dan ahli meteorologi terkenal dari Inggris. Dalam makalahnya yang berjudul Regression towards mediocrity in hereditary stature, yang dimuat dalam Journal of the Anthropological Institute, volume 15, hal. 246263, tahun 1885. Galton menjelaskan bahwa biji keturunan tidak cenderung menyerupai biji induknya dalam hal besarnya, namun lebih medioker (lebih mendekati rata-rata) lebih kecil daripada induknya kalau induknya besar dan lebih besar daripada induknya kalau induknya sangat kecil (Draper dan Smith, 1992). Dalam mengkaji hubungan antara beberapa variabel menggunakan analisis regresi, terlebih dahulu peneliti menentukan satu variabel yang disebut dengan variabel tidak bebas dan satu atau lebih variabel bebas. Jika ingin dikaji hubungan atau pengaruh satu variabel bebas terhadap variabel tidak bebas, maka model regresi yang digunakan adalah model regresi linier sederhana. Kemudian Jika ingin dikaji hubungan atau pengaruh dua atau lebih variabel bebas terhadap variabel tidak bebas, maka model regresi yang digunakan adalah model regresi linier berganda (multiple linear regression model). Kemudian untuk mendapatkan model regresi linier sederhana maupun model regresi linier berganda dapat diperoleh dengan melakukan estimasi terhadap parameter-parameternya menggunakan metode tertentu. Adapun metode yang dapat digunakan untuk mengestimasi parameter model regresi linier sederhana maupun model regresi linier berganda adalah dengan metode kuadrat terkecil
(ordinary least square/OLS) dan metode kemungkinan maksimum (maximum likelihood estimation/MLE) (Kutner et.al, 2004).
2. Heteroskedastisitas Heteroskedastisitas adalah variansi dari error model regresi tidak konstan atau variansi antar error yang satu dengan error yang lain berbeda (Widarjono, 2007). Dampak adanya heteroskedastisitas dalam model regresi adalah walaupun estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang minimum dan menyebabkan perhitungan standard error metode OLS tidak
bisa dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi. Akibat dari dampak heteroskedastisitas tersebut menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang linear unbiased estimator (LUE). Selanjutnya dilakukan deteksi masalah heteroskedastisitas dalam model regresi. Salah satu cara yang dapat digunakan untuk mendeteksi adanya heteroskedastisitas dalam model regresi adalah dengan Metode Glejser. Glejser merupakan seorang ahli ekonometrika dan mengatakan bahwa nilai variansi variabel error model regresi tergantung dari variabel bebas. Selanjutnya untuk mengetahui apakah pola variabel error mengandung heteroskedastisitas Glejser menyarankan untuk melakukan regresi nilai mutlak residual dengan variabel bebas. Jika hasil uji F dari model regresi yang diperoleh tidak signifikan, maka tidak ada heteroskedastisitas dalam model regresi (Widarjono, 2007).
3. Autokorelasi Autokorelasi adalah terjadinya korelasi antara satu variabel error dengan variabel error yang lain. Autokorelasi seringkali terjadi pada data time series dan dapat juga terjadi pada data cross section tetapi jarang (Widarjono, 2007). Adapun dampak dari adanya autokorelasi dalam model regresi adalah sama dengan dampak dari heteroskedastisitas yang telah diuraikan di atas, yaitu walaupun estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi. Akibat dari dampak adanya autokorelasi dalam model regresi menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang LUE (Widarjono, 2007). Selanjutnya untuk mendeteksi adanya autokorelasi dalam model regresi linier berganda dapat digunakan metode DurbinWatson. Durbin-Watson telah berhasil mengembangkan suatu metode yang
digunakan untuk mendeteksi adanya masalah autokorelasi dalam model regresi linier berganda menggunakan pengujian hipotesis dengan statistik uji yang cukup populer seperti pada persamaan (6.1) berikut.
2 = =2 ( 1 ) = 2 = =1
Kemudian Durbin-Watson berhasil menurunkan nilai kritis batas bawah (dL) dan batas atas (dU) sehingga jika nilai d hitung dari persamaan (6.1) terletak di luar nilai kritis ini, maka ada atau tidaknya autokorelasi baik positif atau negatif dapat diketahui. Deteksi autokorelasi pada model regresi linier berganda dengan metode Durbin-Watson adalah seperti pada Tabel berikut. Nilai Statistik Durbin-Watson 0 < < Hasil Menolak hipotesis nol; ada
keputusan 4 Menerima hipotesis nol; tidak ada autokorelasi positif/negatif 4 4 Daerah keragu-raguan; tidak ada
autokorelasi positif Sumber : Widarjono (2007) Salah satu keuntungan dari uji Durbin-Watson yang didasarkan pada error adalah bahwa setiap program komputer untuk regresi selalu memberi informasi statistik d. Adapun prosedur dari uji Durbin-Watson adalah (Widarjono, 2007): 1. Melakukan regresi metode OLS dan kemudian mendapatkan nilai errornya.
2. Menghitung nilai d dari persamaan (6.1) (kebanyakan program komputer secara otomatis menghitung nilai d). 3. Dengan jumlah observasi (n) dan jumlah variabel bebas tertentu tidak termasuk konstanta (p-1), kita cari nilai kritis dan di statistik Durbin-Watson. 4. Keputusan ada atau tidaknya autokorelasi dalam model regresi didasarkan pada Tabel 6.1. Selain Kriteria uji seperti pada Tabel 6.1, dapat juga digunakan kriteria lain untuk mendeteksi adanya autokorelasi dalam model regresi linier berganda adalah sebagai berikut (Santoso, 2000): 1. Jika nilai d < 2, maka ada autokorelasi positif. 2. Jika 2 d 2, maka tidak ada autokorelasi. 3. Jika nilai d > 2, maka ada autokorelasi negatif.
Kasus: Seorang Manajer Pemasaran deterjen Hotel Castaneda ingin mengetahui apakah Promosi dan Harga berpengaruh terhadap keputusan konsumen memilih hotel tersebut ?
Hipotesis: Ho : b1 = b2 = 0, Promosi dan Harga tidak berpengaruh signifikan terhadap keputusan konsumen memilih Hotel Castaneda. Ha : b1 b2 0, Promosi dan Harga berpengaruh signifikan terhadap keputusan konsumen memilih Hotel Castaneda.
DATA KASUS
Harga (dalam Ratus Ribu Rp) (X1)
8 3 4 7 9 8 4 5 6 6 3 5
5 2 8 6 7 9 10 4 8 5 2 5 7 9
126
7 5 3 4 3 6 5 7 4 8 4 7 2 5
99
15 18 15 19 16 26 30 24 20 18 15 20 15 22
376
Variables Entered/Removedb Variables Entered Variables Removed Method Promosi, Hargaa . Enter
Dari tabel di atas diketahui bahwa variabel yang dimasukkan adalah Promosi dan Harga. Sedangkan variabel yang dihilangkan atau dihapuskan tidak ada. Dengan kata lain, semua variabel bebas (X1, X2) dimasukkan dalam analisis regresi linear berganda tersebut.
Tabel 2
Change Statistics Adjusted R Std. Error of Square .297 the Estimate 3.666 R Square Change .371 F Change 5.009 df1 2 df2 17 Sig. F Change .019
Square .371
.609a
Tabel di atas menunjukkan bahwa koefisisen atau R simultannya adalah 0,609. Kisaran nilai R adalah 0 hingga 1. Semakin nilai R mendekati angka 1, maka semakin kuat variabel-variabel bebas memprediksikan variabel terikat. Karena 0,609 mendekati angka 1, maka variabel-variabel bebas yakni Promosi dan Harga dapat memprediksikan tingkat keputusan konsumen dengan sangat kuat. Sedangkan R Square adalah 0,371 yaitu hasil kuadrat dari koefisien korelasi (0,609 x 0,609 = 0,371). Seperti halnya R simultan, kisaran nilai adjusted R square adalah 0 hingga 1. Dari tabel di atas diketahui nilai adjusted R square adalah 0,297 mendekati nilai 1, sehingga ketepatan mencari jawaban dari suatu populasi berdasarkan sampel yang ada cukup tinggi. Standard Error of Estimate adalah 3.666. Karena 3.666 mendekati tidak nilai nol, maka bukan model yang excellent.
Tabel 3
ANOVAb Model 1 Regression Residual Total Sum of Squares 134.668 228.532 363.200 df 2 17 19 Mean Square 67.334 13.443 F 5.009 Sig. .019a
Dari tabel di atas, diketahui bahwa df (degree of freedom) adalah derajat kebebasan dimana df regression (perlakuan) sebagai df pembilang, df residual (sisa) sebagai df penyebut. Nilai df pembilang adalah 2 (jumlah variabel bebas), sedangkan df penyebut adalah 17. Di samping itu diketahui pula bahwa Fhitung adalah 5,009 diperoleh dari mean square untuk regression dibagi mean square untuk residual (67,334 : 13,443). Kemudian nilai Ftabel kita peroleh dengan melihat pada tabel untuk nilai dari F(0,05;2;17) adalah 3,59. Karena Fhitung > Ftabel, maka dapat disimpulkan bahwa variabel bebas yakni harga dan promosi secara serentak mempengaruhi tingkat tingkat keputusan konsumen atau dengan kata lain model regresi dapat digunakan untuk memprediksi tingkat keputusan konsumen. Selain itu, kita juga dapat menarik kesimpulan dengan membandingkan nilai Sig.hitung pada tabel di atas yaitu 0,019 dengan = 0,05 dimana Sig.hitung < , sehingga juga dapat dapat ditarik kesimpulan yang sama bahwa variabel bebas yakni harga dan promosi secara serentak mempengaruhi tingkat tingkat keputusan konsumen atau dengan kata lain model regresi dapat digunakan untuk memprediksi tingkat keputusan konsumen.
10
Tabel 4
Coefficientsa Model Unstandardized Coefficients B 1 (Constant ) Harga Promosi 1.038 1.234 .365 .553 .577 .453 2.841 2.231 .011 .039 .898 .898 1.114 1.114 6.154 Std. Error 4.183 Standardized Coefficients Beta t 1.471 Sig. .159 Collinearity Statistics Tolerance VIF
Dari tabel di atas diperoleh koefisien nilai dari kolom B pada Unstandardized Coefficient, yaitu 0 = 6,154 1 = 1,038 2 = 1,234 Masing-masing koefisien tersebut menunjukkan nilai yang menjelaskan bahwa Y (variabel terikat) akan berubah jika X (variabel bebas) diubah 1 unit. Adapun persamaan regresi linier berganda sementara yang dapat diperoleh : = 0 + 1 X1 + 2 X2 + = 6,154 + 1,038X1 + 1,234X2 +
Di samping itu, kolom Sig. di atas juga menunjukkan nilai signifikansi hubungan antara setiap variabel bebas dengan variabel terikat dimana jika Sig.hitung < ( = 0,05), maka variabel bebas tersebut berpengaruh signifikan terhadap variabel terikatnya. Artinya : Harga Sig.hitung = 0,011 < = 0,05, jadi harga berpengaruh signifikan terhadap tingkat keputusan konsumen. Promosi
11
ig.hitung = 0,129 < = 0,05, jadi promosi berpengaruh signifikan terhadap tingkat konsumsi.
Dari tabel yang didapat, kedua variabel signifikan karena bernilai < 0,05. Oleh karena model analisi yang didapat adalah :
promosi nilainya adalah 0, maka keputusan konsumen adalah 6,154. Koefisien regresi variabel harga (X1) sebesar 1,038 artinya jika harga
mengalami kenaikan 1% dan promosi 0 maka nilai keputusan konsumen (Y) akan mengalami peningkatan sebesar 1,038 . Kemudian bila harga bernilai 0 maka promosi mengalami peningkatan sebesar 1,234. Koefisien bernilai positif artinya terjadi hubungan positif antara harga dengan promosi, semakin niak harga dan promosi maka semakin meningkat nilai keputusan konsumen.
12
Pada Normal P-P Plot prinsipnya normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal grafik atau dengan melihat histogram dari residualnya. Dasar pengambilan keputusan :
a. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi normalitas. b. Jika data menyebar jauh garis diagonal dan/atau tidak mengikuti arah garis diagonal atau grafik histogram tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi normalitas.
Dari analisis kurva dapat dilihat bahwa titik-titik yang menyebar disekitar garis diagonal dan penyebarannya mengikuti arah garis diagonal sehingga dapat disimpulkan bahwa data yang diolah merupakan data yang berdistribusi normal sehingga uji normalitas terpenuhi. Atau bisa juga dengan melihat Histogram berikut.
13
Dapat dilihat bahwa data berdistribusi normal. Untuk menganalisisn KolmogrovSmirnov, lihat pada baris Asymp. Sig. (2-tailed) baris paling bawah. Apabila nilainya lebih dari (>0,05) maka uji normalitas bisa terpenuhi.
One-Sample Kolmogorov-Smirnov Test Unstandardized Residual N Normal Parametersa,b Mean Std. Deviation Most Extreme Differences Absolute Positive Negative Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed) a. Test distribution is Normal. b. Calculated from data. 20 .0000000 3.46814252 .080 .080 -.073 .360 .999
Berdasarkan tabel di atas, diketahui data berdistribusi normal. Hal ini ditunjukkan dengan nilai nilai signifikansi di atas 0,05, yaitu 0,999.
14
b. Uji Multikolinearitas Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan korelasi antar variabel independen. Akibat yang muncul jika sebuah model regresi berganda memiliki kasus multikolinearitas adalah kesalahan standar estimasi akan cenderung meningkat dengan bertambahnya variabel bebas yang masuk pada model. Sehingga signifikansi yang digunakan akan menolak hipotesis nol akan semakin besar. Akibatnya, model regresi yang diperoleh tidak shahih (valid) untuk menaksir variabel independen. Untuk mengetahui ada tidaknya multikolinearitas di dalam regresi dapat dilihat dari dari nilai Tolerance dan Variance Inflation Factor (VIF). Suatu model regresi dinyatakan bebas dari kasus multikolinearitas jika nilai Tolerance di bawah 1 dan VIF di bawah 10.
Coefficientsa Model Unstandardized Coefficients Standardized Coefficients Collinearity Statistics Toleranc B 1 (Constant ) harga promosi 1.038 1.234 .365 .553 .577 .453 2.841 2.231 .011 .039 .898 .898 1.114 1.114 6.154 Std. Error 4.183 Beta t 1.471 Sig. .159 e VIF
Berdasarkan tabel diatas, diketahui bahwa model regresi tersebut bebas dari kasus multikolinearitas. Hal ini ditunjukkan dari nilai Tolerance < 1 yaitu 0,898 dan VIF < 10 yaitu 1,114.
c. Uji Autokorelasi Uji autokorelasi bertujuan untuk menguji apakah model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan periode t-1 (sebelumnya). Model regresi yang baik adalah yang bebas dari autokorelasi.
15
Konsekuensi dari adanya autokorelasi dalam model regresi adalah model regresi yang dihasilkan tidak dapat digunakan untuk menaksir nilai variabel dependen pada nilai variabel independen tertentu. Untuk mendeteksi adanya korelasi dalam suatu model regrsi dilakukan melalui pengujian terhadap nilai uji Durbin-Watson (Uji DW). Kriteria pengujian Durbin-Watson dapat dilihat pada tabel berikut ini : Tabel Kriteria Pengujian Autokorelasi DW < 1,10 1,10 1,54 1,55 2,46 2,47 2,90 > 2,91 Tanpa kesimpulan Tidak ada autokorelasi Tanpa kesimpulan Kesimpulan Ada autokorelasi
Ada Autokorelasi
Model R 1
d i m e n s i o n 0
.609a
Model Summaryb Adjusted R Std. Error of the R Square Square Estimate .371 .297 3.66648
Durbin-Watson 1.705
Berdasarkan tabel di atas, diperoleh nilai Durbin Watson (DW) = 1,705. Nilai tersebut terletak pada selang 1,55 2,46. Hal ini menunjukkan bahwa pada model regresi tersebut tidak terjadi autokorelasi.
16
d. Uji Heteroskedastisitas Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjasi ketidaksamaan varian dari residual satu pengamatan ke pengamatan yang lain. Jika varian dari residual suatu pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas dan jika berbeda akan disebut heretoskedastisitas. Model regresi yang baik adalah model yang tidak terjadi heteroskedastisitas (Ghozali, 2006). Konsekuensi adanya heteroskedastisitas dalam model regresi adalah penaksir (estimator) yang diperoleh tidak efisien, baik dalam sampel kecil, maupun dalam sampel besar. Untuk menentukan heteroskedastisitas dapat meggunakan grafik scatterplot, titik-titik yang terbentuk harus menyebar secara acak, tersebar baik di atas maupun di bawah angka 0 pada sumbu Y, bila kondisi ini terpenuhi maka tidak terjadi heteroskedastisitas dan model regresi layak digunakan.
Dari grafik scatterplot di atas terlihat titik-titik menyebar secara acak serta tersebar baik di atas maupun di bawah angka 0 pada sumbu Y. Dengan demikian dapat disimpulkan bahwa tidak terjadi heteroskedastisitas pada model ini.
17
Berdasarkan berbagai macam pengujian di atas dapat disimpulkan bahwa syarat asumsi klasik ada yang tidak terpenuhi sehingga data dengan menggunakan persamaan regresi berganda dapat dilakukan.
18
DAFTAR PUSTAKA
Nachrowi D.N, Hardius Usman. 2002. Penggunaan Teknik Ekonometri (Edisi Revisi). PT RajaGrafindo Persada: Jakarta
19