(AKKC 156)
Dosen Pembimbing:
Drs. H. Karim, M.Si
Indah Budiarti, M.Pd
Oleh:
Agung Handoko (A1C111037)
DAFTAR ISI........................................................................................................... i
A. Latar Belakang...................................................................................................... 1
B. Regresi linier berganda ........................................................................................ 2
C. Asumsi-asumsi model regresi linier berganda ................................................... 2
D. Pelanggaran-pelanggaran terhadap asumsi regresi linier berganda ............... 3
BAB II KAJIAN TEORI .......................................................................................7
A. Latar Belakang
Analisis regresi merupakan salah satu teknik analisis data dalam statistika
yang seringkali digunakan untuk mengkaji hubungan antara beberapa variabel dan
meramal suatu variabel (Kutner, Nachtsheim dan Neter, 2004).
Istilah “regresi” pertama kali dikemukakan oleh Sir Francis Galton (1822-
1911), seorang antropolog dan ahli meteorologi terkenal dari Inggris. Dalam
makalahnya yang berjudul “Regression towards mediocrity in hereditary stature”,
yang dimuat dalam Journal of the Anthropological Institute, volume 15, hal. 246-
263, tahun 1885. Galton menjelaskan bahwa biji keturunan tidak cenderung
menyerupai biji induknya dalam hal besarnya, namun lebih medioker (lebih
mendekati rata-rata) lebih kecil daripada induknya kalau induknya besar dan lebih
besar daripada induknya kalau induknya sangat kecil (Draper dan Smith, 1992).
Dalam mengkaji hubungan antara beberapa variabel menggunakan analisis
regresi, terlebih dahulu peneliti menentukan satu variabel yang disebut dengan
variabel tidak bebas dan satu atau lebih variabel bebas. Jika ingin dikaji hubungan
atau pengaruh satu variabel bebas terhadap variabel tidak bebas, maka model
regresi yang digunakan adalah model regresi linier sederhana. Kemudian Jika
ingin dikaji hubungan atau pengaruh dua atau lebih variabel bebas terhadap
variabel tidak bebas, maka model regresi yang digunakan adalah model regresi
linier berganda (multiple linear regression model).
Kemudian untuk mendapatkan model regresi linier sederhana maupun
model regresi linier berganda dapat diperoleh dengan melakukan estimasi terhadap
parameter-parameternya menggunakan metode tertentu. Adapun metode yang
dapat digunakan untuk mengestimasi parameter model regresi linier sederhana
maupun model regresi linier berganda adalah dengan metode kuadrat terkecil
�� = � 0 + � 1 �� 1 + � 2 �� 2 + ⋯ + � � � −1
�� � � −1 + � ��
dengan:
� 0, � 1, � 2, … , � � � −1 adalah Parameter
yang saling bebas dan identik dengan rata-rata 0 (nol) dan variansi 2.
2. Heteroskedastisitas
Heteroskedastisitas adalah variansi dari error model regresi tidak konstan atau
variansi antar error yang satu dengan error yang lain berbeda (Widarjono, 2007).
Dampak adanya heteroskedastisitas dalam model regresi adalah walaupun
estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi
yang minimum dan menyebabkan perhitungan standard error metode OLS tidak
bisa dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian
hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya
untuk evaluasi hasil regresi.
Akibat dari dampak heteroskedastisitas tersebut menyebabkan estimator OLS
tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS
yang linear unbiased estimator (LUE). Selanjutnya dilakukan deteksi masalah
heteroskedastisitas dalam model regresi. Salah satu cara yang dapat digunakan
untuk mendeteksi adanya heteroskedastisitas dalam model regresi adalah dengan
Metode Glejser. Glejser merupakan seorang ahli ekonometrika dan mengatakan
bahwa nilai variansi variabel error model regresi tergantung dari variabel bebas.
Selanjutnya untuk mengetahui apakah pola variabel error mengandung
heteroskedastisitas Glejser menyarankan untuk melakukan regresi nilai mutlak
residual dengan variabel bebas. Jika hasil uji F dari model regresi yang diperoleh
tidak signifikan, maka tidak ada heteroskedastisitas dalam model regresi
(Widarjono, 2007).
3. Autokorelasi
Autokorelasi adalah terjadinya korelasi antara satu variabel error dengan
variabel error yang lain. Autokorelasi seringkali terjadi pada data time series dan
dapat juga terjadi pada data cross section tetapi jarang (Widarjono, 2007). Adapun
dampak dari adanya autokorelasi dalam model regresi adalah sama dengan
dampak dari heteroskedastisitas yang telah diuraikan di atas, yaitu walaupun
estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi
yang minimum dan menyebabkan perhitungan standard error metode OLS tidak
bisa dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian
hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya
untuk evaluasi hasil regresi. Akibat dari dampak adanya autokorelasi dalam model
regresi menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE
dan hanya menghasilkan estimator OLS yang LUE (Widarjono, 2007).
Selanjutnya untuk mendeteksi adanya autokorelasi dalam model regresi linier
berganda dapat digunakan metode Durbin- Watson. Durbin-Watson telah
berhasil mengembangkan suatu metode yang
digunakan untuk mendeteksi adanya masalah autokorelasi dalam model regresi
linier berganda menggunakan pengujian hipotesis dengan statistik uji yang cukup
populer seperti pada persamaan (6.1) berikut.
∑��=��
� = 2 (�� − ���−1 )
2
�
∑��=�
��=1 �
2
Kemudian Durbin-Watson berhasil menurunkan nilai kritis batas bawah (dL) dan
batas atas (dU) sehingga jika nilai d hitung dari persamaan (6.1) terletak di luar
nilai kritis ini, maka ada atau tidaknya autokorelasi baik positif atau negatif dapat
diketahui. Deteksi autokorelasi pada model regresi linier berganda dengan metode
Durbin-Watson adalah seperti pada
Tabel berikut.
Nilai Statistik Durbin-Watson
0 < � < ��
�� ≤ � ≤ ��
�� ≤ � ≤ 4 − ��
4 − �� ≤ � ≤ 4 − ��
4 − �� ≤ � ≤ 4
Kasus:
Seorang Manajer Pemasaran deterjen Hotel Castaneda ingin mengetahui apakah Promosi
dan
Hipotesis:
DATA KASUS
A. Hasil Analisis Data
Tabel 1
Variables Entered/Removedb
Model
1
Tabel 2
Model Summary
Change Statistics
Model
1 .609a
�,
sehingga juga dapat dapat ditarik kesimpulan yang sama bahwa variabel bebas
yakni harga dan promosi secara serentak mempengaruhi tingkat tingkat keputusan
konsumen atau dengan kata lain model regresi dapat digunakan untuk
memprediksi tingkat keputusan konsumen.
Tabel 4
Coefficientsa
Model
1 (Constant
) Harga
Promosi
�1 = 1,038
�2 = 1,234
terhadap
variabel terikatnya. Artinya :
Harga
Sig. = 0,011 < � = 0,05, jadi harga berpengaruh signifikan
hitung
terhadap
tingkat keputusan konsumen.
Promosi
ig. = 0,129 < � = 0,05, jadi promosi berpengaruh signifikan
hitung
terhadap
tingkat konsumsi.
Dari tabel yang didapat, kedua variabel signifikan karena bernilai < 0,05. Oleh karena
model analisi yang didapat adalah :
a. Uji Normalitas
Uji normalitas bisa dilakukan dengan dua cara. Yaitu “Normal P-P Plot” dan
“Tabel Kolmogrov Smirnov”.
Pada Normal P-P Plot prinsipnya normalitas dapat dideteksi dengan melihat
penyebaran data (titik) pada sumbu diagonal grafik atau dengan melihat histogram
dari residualnya.
Dasar pengambilan keputusan :
a. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis
diagonal atau grafik histogramnya menunjukkan pola distribusi normal,
maka model regresi memenuhi asumsi normalitas.
b. Jika data menyebar jauh garis diagonal dan/atau tidak mengikuti arah garis
diagonal atau grafik histogram tidak menunjukkan pola distribusi normal,
maka model regresi tidak memenuhi asumsi normalitas.
Dari analisis kurva dapat dilihat bahwa titik-titik yang menyebar disekitar garis diagonal
dan penyebarannya mengikuti arah garis diagonal sehingga dapat disimpulkan bahwa data
yang diolah merupakan data yang berdistribusi normal sehingga uji normalitas
terpenuhi. Atau bisa juga dengan melihat Histogram berikut.
Dapat dilihat bahwa data berdistribusi normal. Untuk menganalisisn Kolmogrov-
Smirnov, lihat pada baris “Asymp. Sig. (2-tailed)” baris paling bawah. Apabila
nilainya lebih dari (>0,05) maka uji normalitas bisa terpenuhi.
N
Normal Parametersa,b Mean
Std. Deviation
Most Extreme Differences Absolute Positive Negative
Kolmogorov-Smirnov Z
Asymp. Sig. (2-tailed)
Coefficientsa
Model
1 (Constant
)
harga promosi
Berdasarkan tabel diatas, diketahui bahwa model regresi tersebut bebas dari
kasus multikolinearitas. Hal ini ditunjukkan dari nilai Tolerance < 1 yaitu 0,898
dan VIF < 10 yaitu 1,114.
c. Uji Autokorelasi
Uji autokorelasi bertujuan untuk menguji apakah model regresi linier ada
korelasi antara kesalahan pengganggu pada periode t dengan kesalahan periode t-1
(sebelumnya). Model regresi yang baik adalah yang bebas dari autokorelasi.
Konsekuensi dari adanya autokorelasi dalam model regresi adalah model regresi
yang dihasilkan tidak dapat digunakan untuk menaksir nilai variabel dependen
pada nilai variabel independen tertentu. Untuk mendeteksi adanya korelasi dalam
suatu model regrsi dilakukan melalui pengujian terhadap nilai uji Durbin-Watson
(Uji DW). Kriteria pengujian Durbin-Watson dapat dilihat pada tabel berikut ini :
1,10 – 1,54
1,55 – 2,46
2,47 – 2,90
> 2,91
Model Summaryb
Model
1 .609a
Dari grafik scatterplot di atas terlihat titik-titik menyebar secara acak serta
tersebar baik di atas maupun di bawah angka 0 pada sumbu Y. Dengan demikian
dapat disimpulkan bahwa tidak terjadi heteroskedastisitas pada model ini.
Berdasarkan berbagai macam pengujian di atas dapat disimpulkan bahwa
syarat asumsi klasik ada yang tidak terpenuhi sehingga data dengan menggunakan
persamaan regresi berganda dapat dilakukan.
DAFTAR PUSTAKA
http://digilib.usm.ac.id/files/disk1/4/gdl-usm--dyahnirmal-160-1-statisti-n.pdf
(diakses 12 Desember 2013, 10:00)
http://aliefworkshop.wordpress.com/2013/08/19/uji-multikolinearitas-dengan-
spss/ (diakses 15 Desember 2013, 08:00)
http://statistikian.blogspot.com/2013/01/uji-heteroskedastisitas.html (diakses 15
Desember 2013, 09:10 )