Asumsi Regresi
Asumsi Regresi
Saat kita melakukan uji regresi linear atau uji pearson product moment, kita dihadapkan pada
situasi di mana harus melakukan uji linearitas, sebab linearitas merupakan salah satu syarat
atau asumsi yang harus dipenuhi. Dalam artikel ini kita akan mempelajari tutorial linearitas
regresi dengan SPSS.
Linearitas adalah sifat hubungan yang linear antar variabel, artinya setiap perubahan yang
terjadi pada satu variabel akan diikuti perubahan dengan besaran yang sejajar pada variabel
lainnya.
Cara melakukan uji linearitas dapat dilakukan dengan 2 cara dengan menggunakan aplikasi
SPSS, yaitu dengan fungsi “Scatter Plot Graph” dan fungsi “Compare Means”.
Buka aplikasi SPSS anda dan isikan data dengan skala data interval atau numerik sebanyak 20
sample pada 2 variabel yaitu X dan Y. Data tersebut seperti contoh di bawah ini:
Pada menu, klik Analyze, Compare Means, Means. Isikan Y ke kotak Dependent List dan
Isikan X ke kotak Independen List.
Linearitas Regresi
Lihat Output.
Interprestasinya adalah: lihat kolom Sig. pada baris Linearity di Table Anova, jika nilainya <
0,05 maka bersifat linear sehingga dapat disimpulkan memenuhi syarat linearitas.
Bagaimana melakukannya dengan fungsi “Scatter Plot”? Caranya mudah, yaitu pada menu,
pilih Chart Builder, pada Tab Gallery pilih Scatter/Dot, Masukkan X ke Axis X dan
Masukkan Y ke Axis Y, kemudian tekan OK.
Lihat pada output: Jika plot-plot yang ada mengikuti garis fit line, maka terdapat hubungan
linear.
Cara pengujian dengan metode grafik seperti ini memberikan interprestasi dan tentunya
kesimpulan yang sangat bervariatif antar orang yang melakukan interprestasi, sehingga sangat
subjektif.
HETEROSKEDASTISITAS
1. UJI GLEJSER
Buat 4 variabel dengan skala data “Scale” Type “Numeric” Decimal “0” dengan nama sesuai
tabel di atas: Fisika, Biologi, Matematika dan SPMB.
Dataset Heteroskedastisitas
Klik Menu, Analyze, Regression, Linear: Setelah terbuka jendela, Masukkan Fisika, Biologi
dan Matematika ke kotak Variabel Independent dan masukkan SPMB ke kotak Variabel
Dependent.
Cari tombol “SAVE” lalu klik maka akan muncul jendela baru, cari “Unstandardized” lalu
centang, OK dan OK lagi sampai jendela tertutup.
Uji Heteroskedastisitas
Abaikan Output dan Lihat ada sebuah variabel baru dengan nama “RES_1”
Klik Transform, Compute Variabel: Pada Kotak “Target Variabel” Isi dengan RES2. Pada
kotak “Numeric Expression” ketikkan rumus: “ABS_RES(RES_1)”
Abaikan output dan lihat ada variabel baru dengan nama “RES2”
Klik Menu Analyze, Regression, Linear: Keluarkan SPMB dari kotak Variabel dependent dan
masukkan variabel RES2 ke kotak Variabel dependent.
Uji Glejser
Cari tombol “SAVE” lalu klik maka akan muncul jendela baru, cari “Unstandardized” dan
hilangkan centang, OK dan OK lagi sampai jendela tertutup.
Kesimpulannya: Apabila nilai signifikansi (Sig.) > 0,05 maka tidak terjadi gejala
Heteroskedastisitas.
Dari output di atas, maka tampak bahwa ketiga variabel tidak ada gejala heteroskedastisitas
karena Sig. > 0,05.
Membuat Residual
Klik Menu, Analyze, Regression, Linear: kemudian masukkan Fisika, Bilogi, dan matematika
ke kotak Variabel Independent dan masukkan variabel SPMB ke kotak variabel dependent.
Langkah Awal
Cari tombol “SAVE”, lalu klik sehingga muncul jendela dan cari “Unstandardized” lalu
centang. Kemudian klik OK sampai jendela tertutup.
Opsi Uji Park SPSS
Abaikan output dan lihat ada satu variabel baru bernama “RES_1”
Buat Nilai Logaritma Natural dari kuadrat Variabel yang baru tersebut (RES_1) dengan cara
pada menu, klik Transform, lalu setelah jendela terbuka ketikkkan “Lnei2” pada kotak “Target
Variable” dan ketikkan rumus pada kotak “Numeric Expressions” sebagai berikut
“LN(RES_1*RES_1)”
Logaritma Natural
Buat Logaritma Natural pada variabel Fisika, Biologi dan Matematika dengan cara pada menu,
klik Compute, Transform variable:
1. Fisika: Target=lnx1. Rumus: LN(Fisika)
Lihat terdapat variabel baru dengan nama Lnei2, Lnx1, Lnx2 dan Lnx3.
Langkah berikutnya adalah melakukan regresi dimana Lnx1, Lnx2 dan Lnx3 sebagai variabel
independen dan Lnei2 sebagai variabel dependen. Caranya pada menu, klik analyze,
regression, linear, masukkan Lnx1, Lnx2 dan Lnx3 ke kotak variabel independent dan
masukkan Lnei2 ke kotak variabel dependent kemudian OK.
Lihat Output! Berikut di bawah ini kami jelaskan cara baca output uji park dengan SPSS, yaitu:
Dari ketiga regresi di atas, lihat masing-masing nilai t dan bandingkan dengan t tabel pada DF
N-2 yaitu dalam hal ini t pada DF 28 dan Batas Kritis 0,05 dua sisi. Semuanya nilai t hitung <
t tabel maka tidak ada gejala heteroskedastisitas= (1,247, -1,582 dan 1,683).
Untuk melihat nilai T tabel, baca artikel kami dengan judul “T Tabel dalam Excel“
Cara mudah dengan excel adalah ketikkan rumus “=TINV(0,05;28) di mana 0,05 adalah batas
kritis dan 28 adalah DF N-2 yaitu 30-2=28.
Cara Lain untuk melihat nilai T Tabel dengan SPSS akan kita bahas dalam artikel selanjutnya.
Cara lain membaca kesimpulan pada Uji Park ini dalam SPSS adalah dengan melihat nilai P
value yaitu pada kolom Sig., apabila nilai Sig. > 0,05 maka tidak ada gejala Heteroskedastistias
3. Grafik Scatterplots
Seperti yang telah dijelaskan, pada bahasan ini akan dibahas salah satu uji heteroskedastisitas,
yaitu dengan melihat grafik. Perlu diketahui bahwa uji dengan cara ini sangat tidak dianjurkan,
sebab sangat bersifat subjektif karena tergantung pada subjektifitas tiap orang yang melihat
grafik. Tapi tidak ada salahnya kita mencoba cara yang satu ini. Selain itu yang menjadi
pertimbangan lainnya mengapa kami membuat artikel Uji Heteroskedastisitas dengan Grafik
ini adalah karena kepraktisannya. Dimana pada saat kita melakukan uji heteroskedastisitas,
secara otomatis hasil uji heteroskedastisitasnya bisa langsung terlihat oleh para peneliti.
Bagaimanakah metode ini? Jawabannya adalah: Melihat pola titik-titik pada scatter plots
regresi. metodenya adalah dengan membuat grafik plot atau scatter antara “Standardized
Predicted Value (ZPRED)” dengan “Studentized Residual (SRESID)”. Ada tidaknya pola
tertentu pada grafik scatterplot antara SRESID dan ZPRED adalah sumbu Y dimana sumbu Y
yang telah diprediksi dan Sumbu X adalah Residual (Y Prediksi – Y Sesungguhnya).
Bagaimana cara baca atau kriteria pengujian untuk menjawab hipotesis berdasarkan grafik ini?
Jawabannya adalah seperti di bawah ini:
1. Ho: Tidak ada gejala heteroskedastisitas apabila tidak ada pola yang jelas, seperti titik-
titik menyebar di atas dan di bawah angka 0 pada sumbu Y.
2. Ha: Ada gejala heteroskedastisitas apabila ada pola tertentu yang jelas, seperti titik-titik
membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit).
Apakah bisa dilakukan dengan menggunakan aplikasi SPSS? jawabannya tentu “Ya”.
Klik Menu, Analyze, Regression, Linear: kemudian masukkan Fisika, Bilogi, dan matematika
ke kotak Variabel Independent dan masukkan variabel SPMB ke kotak variabel dependent.
Cari tombol “PLOT”, lalu klik sehingga muncul jendela “Linear Regression Plots”. Kemudian
masukkan SRESID pada kotak Y dan ZPRED pada kotak X, klik Continue dan OK sampai
jendela tertutup.
Langkah Akhir Uji Heteroskedastisitas
dengan Grafik
Demikianlah cara yang singkat sekali, namun anda sudah selesai melakukan tahapan uji
heteroskedastisitas dengan grafik. Selanjutnya tinggal membaca output dan menyimpulkan
hasil analisis anda.
Lihat Grafik Scatter di atas, jelas bahwa tidak ada pola tertentu karena titik meyebar tidak
beraturan di atas dan di bawah sumbu 0 pada sumbu Y. Maka dapat disimpulkan tidak terdapat
gejala heteroskedastisitas atau H0 diterima.
Dan bagaimana jika seandainya malah sebaliknya, yaitu titik-titik atau plot menyebar tidak
merata dan atau membentuk pola-pola tertentu? Pola tertentu itu misalnya membentuk
gumpalan atau membentuk pola seperti ombak? Jawabannya adalah jelas terdapat masalah
heteroskedastisitas.
Uji Multikolinearitas
Pengertian Uji Multikolinearitas
Uji multikolinearitas adalah uji yang dilakukan untuk memastikan apakah di dalam
sebuah model regresi ada interkorelasi atau kolinearitas antar variabel bebas.
Interkorelasi adalah hubungan yang linear atau hubungan yang kuat antara satu variabel bebas
atau variabel prediktor dengan variabel prediktor lainnya di dalam sebuah model regresi.
Interkorelasi itu dapat dilihat dengan nilai koefisien korelasi antara variabel bebas, nilai VIF
dan Tolerance, nilai Eigenvalue dan Condition Index, serta nilai standar error koefisien beta
atau koefisien regresi parsial.
Asumsi Multikolinearitas
Kita harus mengingat secara baikbaik, bahwa multikolinearitas adalah syarat atau asumsi
terhadap jenis analisis yang harus dipenuhi. Pada analisis statistik apa sajakah multikolinearitas
dapat terjadi?
Seperti yang sudah kita pahami sebelumnya bahwa multikolinearitas dapat terjadi pada
beberapa model regresi, antara lain regresi linear, baik regresi linear sederhana, regresi linear
berganda, regresi data panel ataupun regresi yang lainnya seperti regresi logistik dan cox
regression. Oleh karena itu, bagi pembaca kami rekomendasikan untuk mempelajari artikel-
artikel kami tentang hal-hal yang disebutkan diatas, terutama artikel yang berjudul
Multikolinearitas.
Cara uji multikolinearitas dengan SPSS sangatlah mudah dan praktis serta dapat dilakukan
dengan cepat jika menggunakan aplikasi SPSS, karena jadi satu proses dengan langkah
pengujian regresi itu sendiri. Langkah Uji multikolinearitas di dalam SPSS tersebut akan kami
jelaskan dalam bahasan ini sebagai tindak lanjut dari artikel sebelumnya yang menjelaskan
secara rinci tentang pengertian multikolinearitas hingga dampak yang diakibatkannya pada
model regresi yang para peneliti lakukan.
Tutorial uji multikolinearitas dengan SPSS
Buat dataset yang di di dalamnya terdapat 3 variabel, dengan perincian: 1 variabel dependent
atau variabel response dan beberapa variabel Independen (Artinya lebih dari satu variabel
predictor). Dalam tutorial SPSS ini, kita akan membuat contoh uji multikolinearitas dengan
menggunakan 2 variabel independen. Lihat contohnya di bawah ini, yaitu dengan
menggunakan 50 sampel.
Selanjutnya isi dataset tersebut dengan data-data berskala data interval ataupun rasio.
Lakukan langkah sebagai berikut: pada menu, klik analyze -> regression -> linear ->
selanjutnya masukkan variabel prediktor ke kolom Independent (s), variabel response ke kolom
Dependent. Metode yang dipilih terserah anda, apakah metode enter atau metode stepwise, itu
tergantung pada model regresi yang akan anda lakukan terkait dengan pertanyaan-pertanyaan
penelitian di dalam metode penelitian anda.
Klik tombol statistics dan pastikan bahwa anda mencentang Collinearity Diagnostics dan
Descriptives, kemudian tekan tombol Continue. Caranya seperti di bawah ini:
Langkah Uji Multikolinearitas SPSS
Untuk checklist yang lainnya, terserah anda apakah akan digunakan atau tidak. Tentunya jika
anda menginginkan hasil yang maksimal dalam rangka untuk membuat sebuah model regresi
yang BLUE (Best Linear Unbiased estimation), maka anda harus mencentang semuanya. Oleh
karena itu, anda harus mempelajari juga tentang asumsi klasik regresi linear, antara lain:
autokorelasi, heteroskedastisitas, outlier, linearitas regresi dan normalitas residual pada regresi
linear.
Jika anda sudah menyelesaikan prosedur lainnya dalam pengujian di dalam regresi linear, maka
tekan tombol OK pada jendela utama SPSS. Dan selanjutnya lihatlah outputnya.
Berikut kami jelaskan cara baca uji multikolinearitas dengan SPSS atau yang lebih tepatnya
kita beri istilah interprestasi. Silahkan buka output anda!
Interkorelasi
Pada tabel korelasi menunjukkan hasil analisis interkorelasi antara variabel bebas yang ditandai
dengan nilai koefisien korelasi pearson. Dalam hal ini di dalam Output SPSS dapat anda lihat
pada persilangan antar variabel bebas. Misalnya dalam tutorial ini, hasil korelasi antara variabel
bebas X1 dengan X2 adalah sebesar r = 0,368. Karena nilai 0,368 tersebut kurang dari 0,8 maka
gejala multikolinearitas tidak terdeteksi. Selanjutnya akan kita pastikan dengan melihat cara
deteksi multikolinearitas lainnya, yaitu berdasarkan nilai standar error dan koefisien beta
regresi parsial. Lihat di bawah ini:
Dalam tabel coefficient dapat anda perhatikan bahwa nilai standar error kurang dari satu, yaitu
X1 = 0,121 dan X2 = 0,118 dimana keduanya kurang dari satu. Serta nilai koefisien beta juga
kurang dari satu dimana X1 = 0,624 dan X2 = 0,407. Maka dapat dikatakan bahwa nilai standar
error rendah dan multikolinearitas tidak terdeteksi. Selanjutnya pastikan lagi dengan nilai
rentang upper dan lowerbound confidence interval, apakah lebar atau sempit. Berikut hasilnya:
Perhatikan pada tabel coefficient di atas, bahwa nilai rentangnya sempit, yaitu pada X1 = 0,865
sampai dengan 1,156. Sedangkan pada X2 juga kebetulan hasilnya sama yaitu X2 = 0,865
sampai dengan 1,156. Karena rentangnya sempit maka multikolinearitas tidak terdeteksi.
Pada tabel yang sama di atas sebagai hasil uji regresi linear, perhatikan nilai VIF dan Tolerance.
Kedua ini adalah indikasi kuat yang sering dipakai oleh para peneliti untuk menyimpulkan
fenomena terjadinya interkorelasi variabel bebas. Jika nilai VIF kurang dari 10 dan atau nilai
Tolerance lebih dari 0,01 maka dapat disimpulkan dengan tegas bahwa tidak terdapat masalah
multikolinearitas. Dan sebaliknya maka dapat disimpulkan dengan tegas pula bahwa
multikolinearitas telah terjadi dalam model. Selanjutnya yang terakhir di dalam output proses
yang sudah kita lakukan, kita perhatikan nilai dari collinearity diagnostics seperti di bawah ini:
Collinearity Diagnostics SPSS
Pada tabel collinearity diagnostics di atas sebagai hasil uji regresi linear, kita perhatikan juga
nilai eigenvalue dan condition index. Jika Eigenvalue lebih dari 0,01 dan atau Condition Index
kurang dari 30, maka dapat disimpulkan bahwa gejala multikolinearitas tidak terjadi di dalam
model regresi. Dalam tutorial SPSS ini, nilai eigenvalue 0,02 > 0,01 walaupun collinearity
diagnostics 40,458 dimana lebih dari 30.
Jadi seharusnya asumsi normalitas akan mudah dicapai apabila kita mengikuti aturan yang
benar, yaitu melakukan pengujian normalitas pada residual. Apabila tidak normal, maka
dengan transformasi biasanya residual berubah menjadi normal. Apabila gagal kita bisa
membuang outlier atau menambah sample.
Uji Normalitas pada regresi linear berganda dilakukan pada residual, bukan pada data
per variabel.
Di sini kita akan melakukan uji normalitas residual pada uji regresi linear berganda. Ada 2 cara,
yaitu:
Maksudnya adalah saat kita melakukan uji regresi linear bergadna dengan SPSS, secara
otomatis kita tampilkan juga sekaligus dengan uji normalitasnya. Berikut cara pertama
tersebut:
Masukkan variabel dependen pada kotak Dependent dan variabel independen pada kotak
Independent(s)
Centang Semua (ini tidak digunakan pada uji normalitas residual, tetapi untuk menguji asumsi
yang lain, yaitu Durbin Watson untuk auto korelasi, Collinearity diagnostics dan covariance
Matrix untuk Uji Multikolinearitas dan yang lainnya untuk kebutuhan lain dalam memenuhi
tujuan penelitian)
Agar muncul diagram untuk deteksi normalitas pasca regresi, maka klik Tombol Continue
Klik Tombol Plot, centang Histogram dan Normal Probability plot. Sedangkan pada kotak Y,
masukkan SRESID dan pada kotak X masukkan ZPRED. Pada kotak X dan Y ini nanti
digunakan untuk uji heteroskedastisitas.
Agar muncul variabel residual pasca regresi yang nantinya akan digunakan untuk teknik
deteksi normalitas tipe 2. Caranya Klik Tombol Continue
Klik Tombol Save dan kemudian centang Unstandardized, hal ini digunakan pada normalitas
regresi linear berganda dengan pendekatan explore pada residual.
Residual Uji Normalitas Regresi Linear Berganda Dengan
SPSS
Lihat hasilnya!
Cara Baca Grafik Uji Normalitas Pada Regresi Linear Berganda dengan SPSS
Pada output SPSS, lihat diagram Histogram: jika membentuk lengkung kurve normal maka
residual dinyatakan normal dan asumsi normalitas terpenuhi.
Lihat pula diagram Normal P-P Plot, dikatakan memenuhi asumsi normalitas jika diagram
menunjukkan plot-plot mengikuti alur garis lurus.
PP Plots Uji Normalitas Regresi Linear
Berganda Dengan SPSS
Ke-2 grafik di atas dapat anda gunakan untuk mengetahui normalitas residual pada uji
regresi linear berganda, tetapi karena menggunakan grafik, interprestasi tiap orang dapat
berbeda karena unsur subjektifitas, maka anda dapat menggunakan metode ke-2 nantinya di
mana anda dapat menggunakan pendekatan teori untuk mengetahui normalitas, yaitu
dengan menggunakan uji Kolmogorov Smirnov dengan Koreksi Lilliefors dan uji
Shapiro Wilk.
Pada artikel sebelumnya kita telah membahas pengertian dan penjelasan uji autokorelasi.
Silahkan baca artikel kami tersebut di: Pengertian dan Penjelasan Uji Autokorelasi Durbin
Watson.
Sebelum memulai tutorial uji autokorelasi dengan SPSS metode durbin watson, sebaiknya anda
membuat terlebih dahulu satu set data untuk pengujian regresi linear. Anda harus membuat 1
variabel terikat dan beberapa variabel bebas dengan masing-masing berskala data interval atau
rasio. dalam tutorial ini, statistikian coba memberikan cntoh uji autokorelasi dengan SPSS
menggunakan tiga (3) variabel bebas dan satu variabel terikat. Sehingga persamaan regresi
yang akan dibentuk adalah sebagai berikut:
Y = ∝ + ß1 X1 + ß1 X2 + ß1 X3 + e.
Identifikasi Variabel
Baiklah kita mulai tutorial tentang analisis autokorelasi durbin watson. Silahkan buka aplikasi
SPSS anda dan isi 3 variabel bebas dan 1 variabel terikat anda ke dalam dataset SPSS.
Contohnya adalah sebagai berikut:
Silahkan beri nama apa saja untuk menandakan mana variabel terikat dan mana variabel bebas.
Dalam tutorial ini, kami memberi nama variabel bebas: X1, X2 dan X3, sedangkan variabel
terikat dengan nama: Y. Disini kami menggunakan contoh pengujian dengan jumlah sampel
atau observasi sebanyak 128 sampel.
Setelah data anda isikan dan variabel telah dibei nama serta label, silahkan pada menu SPSS,
klik Analyze, Regression, Linear Regression. Maka akan terbuka jendela sebagai berikut ini:
Kemudian anda masukkan variabel terikat ke kolom dependent variable dan variabel bebas ke
kolom independent variables. Kemudian masukkan nomor ke kotak selection variable.
Selanjutnya klik tombol Statistics, sehingga akan muncul jendela atau window sebagai berikut:
Durbin Watson Dalam Uji Autokorelasi dengan
SPSS
Silahkan anda centang semua terutama Durbin Watson Statistics agar output SPSS anda
nantinya muncul nilai Durbin Watson Hitung. Jika sudah dicentang tekan tombol Continue.
Sedangkan untuk tombol-tombol yang lain, silahkan anda tentukan untuk digunakan atau tidak.
Namun untuk uji regresi linear yang ideal, maka semua tombol tersebut wajib anda gunakan.
Untuk memahaminya, silahkan pelajari artikel kami tentang: Regresi Linear dengan SPSS.
Selanjutnya pada jendela utama, anda tekan tombol OK. Dan selanjutnya silahkan lihat Output
hasil pengujian SPSS. Tampilannya adalah sebagai berikut, dimana tepatnya adalah pada Tabel
Summary.
Perhatikan di atas, nilai Durbin Watson pada tabel summary tersebut adalah nilai Durbin
Watson hitung yang nantinya akan anda bandingkan dengan nilai Durbin Watson (DW) Tabel,
baik nilai DU (Durbin Upper) maupun nilai DL (Durbin Lower).
Dalam kesempatan ini kami juga akan menjelaskan cara membaca autokorelasi negatif dan
positif. Cara menentukan atau kriteria pengujian autokorelasi berdasarkan nilai DW adalah
sebagai berikut:
Jika dL < dw < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.
Jika dL < (4 – dw) < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.
Pada contoh ini, nilai Durbin Watson Hitung adalah sebesar 0,382. Dimana nilai tersebut
kurang dari nilai DL pada K = 4 dan t = 128, sehingga terdapat masalah autokorelasi positif.
Nilai DL pada K =4 dan t = 128 berdasarkan tabel Durbin Watson adalah sebesar: 1,66379
sedangkan nilai DU sebesar 1,75960. Untuk mengetahui nilai DU dan DL secara lengkap,
silahkan anda baca artikel kami yang berjudul: Tabel Durbin Watson dan Cara Membaca.
Berdasarkan kriteria pengujian di atas, bagaimana jika seandainya nilai DW sebesar 1,98?
maka DW 1,98 > DU 1,75960 sehingga tidak ada masalah autokorelasi.
Seandainya nilai DW 2,9, maka nilai (4-DW) adalah (4-2,9) = 1,1. Karena nilai (4-DW) 1,1 <
DL 1,66379 maka terdapat masalah autokorelasi negatif.
Dan seandainya nilai DW 2,3 maka (4-DW) adalah (4-2,3) = 1,7 sehingga (4-DW) 1,7 > DL
1,66379 tetapi < DU 1,75960, maka hasil pengujian autokorelasi tidak meyakinkan.
Jika seandainya nilai DW 1,69? maka jawabannya adalah: 1,69 < DU 1,75960 tetapi > DL
1,66379 sehingga hasil pengujian autokorelasi tidak meyakinkan.
Berdasarkan penjelasan di atas, maka dikatakan tidak ada autokorelasi bila nilai DL < DW >
DU dan DL < (4-DW) > DU.
Contoh: Kita melakukan uji regresi linear berganda dengan 2 variabel independen dan 1
variabel dependen dengan jumlah sampel sebanyak 50, didapatkan hasil Durbin Watson
Hitung sebesar d = 2,010.
Maka nilai T = 50, k = 3. Selanjutnya pada tabel di atas cari nilai dL dan dU pada T = 50 dan
k = 3, yaitu nilai dL = 1,46246 dan dU = 1,62833. Pada contoh di atas, nilai d = 2,010, maka
kita hitung terlebih dahulu nilai (4 – d) = 1,990.
Jika dL < d < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.
Maksud di atas adalah, DW: 2,010 > DU: 1,62833, maka tidak terdapat autokorelasi
positif.
Maksud di atas adalah, 4-DW: 2,010 yaitu 1,990 > DU: 1,62833, maka tidak terdapat
autokorelasi negatif.
Maka dapat disimpulkan: pada analisis regresi tidak terdapat autokorelasi positif dan tidak
terdapat autokorelasi negatif sehingga bisa disimpulkan sama sekali tidak terdapat
autokorelasi