Dapat dilihat pada gambar di atas bahwa data terdistribusi mengikuti garis
diagonal pada P-Plot.
2) Uji Kolmogorov-Smirnov
● Langkah 1: Dengan SPSS, setelah menginputkan data, selanjutnya adalah ubah
data ke dalam bentuk Unstandardized Residual, caranya adalah pilih menu
Analyze kemudian klik Regression dan pilih Linier.
● Langkah 2: Masukkan variabel Y ke kolom Dependent dan variabel X ke kolom
Independent (s) 🡪klik Save 🡪 OK. Selanjutnya akan muncul Kotak Dialog Linear
Regression: Save, pada bagian Residuals, centang Unstandardized (abaikan
kolom yang lain) 🡪 Klik OK, maka akan muncul nama RES_1 abaikan saja output
yang muncul dari program SPSS.
● Langkah 3: Pilih Menu Analyze lalu Non-Parametric Test 🡪 klik Legacy Dialogs
kemudian pilih 1-Sample K-S. Muncul kotak dialog lagi dengan nama
One-Sample Kolmogorov-Smirnov Test, selanjutnya masukkan variabel
Unstandardized Residuals [RES_1] ke kotak Test Variable List
Pada Test Distribution centang Normal 🡪 Klik OK
Akan muncul output seperti pada contoh di bawah ini:
● Langkah 4: Melihat nilai Sig. Jika nilai signifikansi >0,05 maka bisa disimpulkan
kalau data berdistribusi normal. Berdasarkan nilai hasil uji normalitas, diketahui
signifikansi sebesar 0.200, yang berarti lebih besar daripada 0.05 atau 0.200 >
0.05. Sehingga dapat disimpulkan bahwa nilai residual berdistribusi normal
sehingga bisa dilanjutkan ke tahap analisis korelasi dan regresi.
4. Analisis Regresi
● Langkah 1: Klik Analyze 🡪 Regression 🡪 Linear 🡪 Klik variabel terikat 🡪 Pindahkan ke kotak
Dependent 🡪 Klik variabel bebas 🡪 Pindahkan ke kotak Independent (s).
● Langkah 2; Pada Method, pastikan dipilih Enter (untuk Regresi Berganda Standar) 🡪 Klik
tombol Statistics 🡪 Ceklis Estimates, Model fit, Descriptives, dan Collinearity diagnostics 🡪
Pada bagian Residual, ceklis Casewise diagnostics dan Outliers outside 3 standard
deviations 🡪 Klik Continue.
● Langkah 3: Klik tombol Options, pada bagian Missing Values ceklis Exclude cases
pairwise 🡪 Klik tombol Plots, lakukan Klik *ZRESID dan tombol panah untuk
memindahkannya ke kotak y-axis, Klik *ZPRED dan tombol panah untuk
memindahkannya ke kotak x-axis 🡪 Klik Next.
● Langkah 4: Klik *SRESID dan tombol panah untuk memindahkannya ke kotak y-axis
(untuk melihat homoskedastisitas) 🡪 Klik *ZPRED dan tombol panah untuk
memindahkannya ke kotak x-axis (untuk melihat homoskedastisitas) 🡪 Pada bagian
Standardized Residual Plots, ceklis pilihan Normal probability plot 🡪 Klik Continue.
● Langkah 5: Klik Save, pada bagian Predicted Values, ceklis Unstandardized,
Standardized, Adjusted 🡪 Pada bagian Residuals, ceklis Standardized, Deleted, dan
Studentized deleted 🡪 Pada bagian Distances, ceklis Mahalanobis, Cook’s, dan Leverage
values 🡪 Pada bagian Influence Statistics, ceklis Standardized dfBeta(s) dan Standardized
DfFit 🡪 Klik Continue 🡪 Klik OK.
5. Output Regresi
Langkah: Tabel Coefficients 🡪 Kolom B menunjukkan koefisien b yaitu nilai yang menjelaskan
bahwa Y (variabel terikat) akan berubah jika X (variabel bebas) diubah 1 unit.
6. Uji Asumsi dan Uji Statistik
Asumsi Uji Regresi Berganda
i. Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk mengetahui apakah terjadi interkorelasi
(hubungan yang kuat) antar variabel independen. Model yang baik ditandai dengan
tidak terjadi interkorelasi antar variabel (tidak ada gejala multikolinearitas).
Dalam Regresi Berganda dengan SPSS, masalah Multikolinieritas ini ditunjukkan
lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom VIF (Variance Inflated
Factors). Tolerance menjelaskan banyaknya varians pada suatu variabel yang tidak bisa
dijelaskan oleh variabel prediktor lainnya.
Jika nilai Tolerance sangat kecil (< 0,10), maka itu menandakan korelasi berganda
satu variabel bebas sangat tinggi dengan variabel bebas lainnya dan mengindikasikan
Multikolinieritas. Nilai VIF merupakan invers dari nilai Tolerance (1 dibagi Tolerance). Jika
nilai VIF > 10, maka itu mengindikasikan terjadinya Multikolinieritas.
Langkah Uji Multikolinearitas: Pada output regresi, perhatikan tabel coefficients. Jika Nilai
VIF dari variabel X lebih kecil dari 10 dan Nilai Tolerance lebih besar 0,10 maka tidak
terjadi Multikolinearitas.
Dari tabel tersebut terlihat variabel bebas yang memiliki nilai VIF < 10 dan
Tolerance >0,1 (tidak terjadi multikolinearitas) adalah kemiskinan, pengangguran,
angkatan kerja, upah, inflasi, transportasi, industri, konstruksi, dan pariwisata.
Sedangkan variabel perdagangan terjadi gejala multikolinearitas karena nilai VIF >10 dan
Tolerance <0,1.
Jika nilai Sig. X1 dan X2 lebih kecil dari 0.05 maka terjadi gejala heteroskedastisitas
2. Uji Spearman
Kriteria pengujian Spearman dengan melihat Tabel Correlations adalah sebagai berikut:
● Ho: Tidak ada gejala heteroskedastisitas
● Ha: Ada gejala heteroskedastisitas
● Ho diterima apabila nilai p value atau signifikansi > 0,05.
Semuanya nilai Sig. < 0,05 berarti terdapat gejala heteroskedastisitas atau Ho ditolak
3. Melihat grafik Scatter Plot
Kriteria melihat grafik scatter plot adalah sebagai berikut:
● Ho: Tidak ada gejala heteroskedastisitas apabila tidak ada pola yang jelas, seperti
titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y.
● Ha: Ada gejala heteroskedastisitas apabila ada pola tertentu yang jelas, seperti
titik-titik membentuk pola tertentu yang teratur (bergelombang, melebar kemudian
menyempit)
4. Uji Park
Kriteria pengujian adalah sebagai berikut:
● Menentukan Ho dan Ha
→ Ho : tidak ada gejala heteroskedastisitas
→ Ha : ada gejala heteroskedastisitas
● Ho diterima bila –t tabel < t hitung < t tabel berarti tidak terdapat
heteroskedastisitas
● Ho ditolak bila t hitung > t tabel atau t hitung < -t tabel yang berarti terdapat
heteroskedastisitas.
● Syarat tidak terjadi heteroskedastisitas yakni nilai Sig. > 0,05
c. Kuadratkan nilai residual dengan cara (pada SPSS) klik Transform 🡪 Compute
Variable 🡪 Isi Target Variable dengan RES_ 🡪 Pada Numeric Expression klik 2x
unstandardized residual, klik *, lalu klik 2x unstandardized residual sehingga muncul
rumus seperti gambar 2
d. Pada Variable View SPSS muncul variabel baru bernama RES_2
● Dari Tabel Coefficients bisa dilihat bahwa variabel kemiskinan memiliki nilai t
hitung < -t tabel atau nilai Sig. < 0,05 sehingga terdapat gejala
heteroskedastisitas.
● Adapun variabel bebas lain (pengangguran, angkatan kerja, upah, inflasi,
transportasi, industri, konstruksi, pariwisata, dan perdagangan) memiliki nilai –t
tabel < t hitung < t tabel atau Sig. > 0,05 sehingga tidak terdapat gejala
heteroskedastisitas.
iii. Autokorelasi
Dalam uji ini, model harus terbebas dari Autokorelasi. Autokorelasi adalah kondisi
dimana terdapat hubungan linier antar kesalahan pengganggu pada periode t dengan
kesalahan pengganggu pada periode sebelumnya (t-1) yang diurutkan menurut waktu (data
time series).
● Autokorelasi terjadi bila nilai gangguan dalam periode tertentu berhubungan dengan
nilai gangguan sebelumnya. Model regresi yang baik = tidak terjadi autokorelasi.
● Uji autokorelasi yang paling sederhana adalah menggunakan uji Durbin-Watson (DW)
dimana dalam uji ini nilai DW hitung yang mendekati 2 dianggap menunjukkan bahwa
model terbebas dari autokorelasi (Gujarati,2003: 469); Ghozali, 2018: 111.
*angka du dan dl dapat dilihat pada tabel Durbin Watson (format yang sudah ditetapkan)
Sumber: https://lkeb.umm.ac.id/files/file/tabel-dw.pdf
Pada Model Summary diketahui nilai Durbin Watson (d) = 1,800.
Sedangkan jumlah variabel bebas (k) = 10 dan jumlah sampel (n) = 35.
Sehingga:
dL = 0,8452
dU = 2,2359
Sehingga 0,8452 < 1,800 < 2,2359 atau nilai dL < d < du yang artinya tidak dapat
disimpulkan.
d. Mengatasi Autokorelasi dengan Run Test
Input Data 🡪 Analyze 🡪 Regression 🡪 Linear 🡪 Klik variabel terikat 🡪 Pindahkan ke kotak
Dependent 🡪 Klik variabel bebas 🡪 Pindahkan ke kotak Independent (s) 🡪 Klik Save 🡪 Pada
Residuals centang Unstandardized 🡪 Akan muncul RES_1 pada Variable View.
1. Uji R Square
● Pada regresi linier berganda, yang dilihat adalah R Square. Adapun nilai R
digunakan pada regresi linier sederhana.
● Tabel Model Summary 🡪 Kolom R Square menunjukkan seberapa baik
variabel-variabel bebas memprediksikan hasil, semakin mendekati 1 maka
semakin kuat variabel-variabel bebas memprediksikan variabel terikat, ketepatan
nilai R Square disempurnakan oleh Adjusted R Square yang merupakan koreksi
atas nilai R Square 🡪 Kolom Adjusted R Square menjelaskan apakah sampel
penelitian mampu mencari jawaban yang dibutuhkan dari populasinya.
Interpretasinya:
● Nilai F hitung 20,764 sedangkan nilai F Tabel 2,254739 artinya F hitung > F Tabel sehingga
variabel-variabel bebas secara serentak mempengaruhi variabel terikat.
● Nilai Sig 0,00 atau < 0,05 artinya model regresi layak.
● Dapat dilihat bahwa nilai t hitung variabel perdagangan dan konstruksi > 2,063899, sedangkan
variabel bebas yang lain memiliki nilai t hitung < 2,063899. Artinya hanya variabel
perdagangan konstruksi yang berpengaruh secara spasial terhadap PDRB sedangkan variabel
lainnya tidak berpengaruh secara spasial.
● Variabel bebas yang memiliki nilai Sig < 0,05 adalah: Pengangguran, Konstruksi, dan
Perdagangan. Artinya sektor-sektor tersebut yang berpengaruh signifikan terhadap laju
pertumbuhan PDRB di Jawa Tengah.
TABEL F
TABEL T
Source: https://lkeb.umm.ac.id/files/file/tabel_distribusi.pdf
7. Iterasi Regresi
Iterasi regresi berarti melakukan regresi ulang dengan memasukkan variabel bebas
yang memenuhi uji asumsi klasik dan uji statistic sebelumnya, yaitu variabel Pengangguran
dan Konstruksi. Caranya adalah melakukan analisis regresi dengan tahapan sama seperti
tahapan analisis regresi di awal sampai didapatkan output regresi.