Anda di halaman 1dari 10

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi
linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak
berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau
regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis
regresi linear, misalnya uji multikolinearitas tidak dapat dipergunakan pada analisis regresi linear
sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan
untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan
market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dilakukan
dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Setidaknya ada lima uji asumsi klasik, yaitu uji multikolinearitas, uji heteroskedastisitas,
uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan
uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.
Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak
memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi
persyaratan, dilakukan pengujian pada uji yang lain.
1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak.
Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji
normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering
terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel.
Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan
pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam
kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar
berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal,
atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut
tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan
nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah.
Demikian juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan
perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji

statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin
memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan
beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau
menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural,
akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah
condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.
2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi (keterkaitan) yang
tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi
yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap
variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel
bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja.
Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi,
kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi
antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara
kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah
dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau
dengan melihat eigenvalues dan condition index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai
berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau
bentuk first difference delta.
4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali
digunakan.
3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari
residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi
persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke
pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan


memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik
didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah,
menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang
dapat digunakan adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan
mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data
bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel
yang mengalami gangguan heteroskedastisitas.
4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t
dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk
melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi
antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara
tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan
tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti
terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu
rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang
relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan
rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan
pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan
secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek
Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test
dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan
data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum
(generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel
lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang 1.
5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai
hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya
model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan
variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan

hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah
elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji
linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat
linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara
dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange
Multiplier.
Analisis Korelasi merupakan suatu analisis untuk mengetahui tingkat keeratan hubungan
antara dua variabel. Tingkat hubungan tersebut dapat dibagi menjadi tiga kriteria, yaitu
mempunyai hubungan positif, mempunyai hubungan negatif dan tidak mempunyai hubungan.
Analisis Regresi Sederhana : digunakan untuk mengetahui pengaruh dari variabel bebas terhadap
variabel terikat atau dengan kata lain untuk mengetahui seberapa jauh perubahan variabel bebas
dalam mempengaruhi variabel terikat. Dalam analisis regresi sederhana, pengaruh satu variabel
bebas terhadap variabel terikat dapat dibuat persamaan sebagai berikut : Y = a + b X.
Keterangan : Y : Variabel terikat (Dependent Variable); X : Variabel bebas (Independent
Variable); a : Konstanta; dan b : Koefisien Regresi. Untuk mencari persamaan garis regresi dapat
digunakan berbagai pendekatan (rumus), sehingga nilai konstanta (a) dan nilai koefisien regresi
(b).
Analisis Korelasi (r) : digunakan untuk mengukur tinggi redahnya derajat hubungan antar
variabel yang diteliti. Tinggi rendahnya derajat keeratan tersebut dapat dilihat dari koefisien
korelasinya. Koefisien korelasi yang mendekati angka + 1 berarti terjadi hubungan positif yang
erat, bila mendekati angka 1 berarti terjadi hubungan negatif yang erat. Sedangkan koefisien
korelasi mendekati angka 0 (nol) berarti hubungan kedua variabel adalah lemah atau tidak erat.
Dengan demikian nilai koefisien korelasi adalah 1 r + 1. Untuk koefisien korelasi sama
dengan 1 atau + 1 berarti hubungan kedua variabel adalah sangat erat atau sangat sempurna dan
hal ini sangat jarang terjadi dalam data riil.
Penjelasan persamaan regresi berganda adalah sebagai berikut :
1) Nilai koefisien regresi (b1) sebesar 1,3642 menggambarkan pengaruh yang positif dari
variabel pendapatan nasional (X1) terhadap import komoditi (Y), yaitu jika pendapatan nasional
negara meningkat maka import komoditi juga akan meningkat (dengan asumsi variabel X2
dalam keadaan konstan atau tetap);
2) Nilai koefisien regresi (b2) sebesar 0,1139 menggambarkan pengaruh yang positif dari
variabel harga komoditi (X2) terhadap import komoditi (Y), (dengan asumsi variabel X1 dalam
keadaan konstan atau tetap); dan
3) Nilai konstanta sebesar 49,3383 menggambarkan terjadinya penurunan import
komoditi jika pendapatan nasional (X1) dan harga komoditi (X2) mempunyai nilai nol.

Nilai R tersebut menunjukkan bahwa hubungan antara varibel pendapatan nasional (X1)
dan variabel harga komoditi (X2) mempunyai hubungan yang erat dan positif (karena 94,6%
lebih mendekati 100%) dengan variabel import komoditi (Y).
Uji statistik t menunjukkan seberapa jauh variabel independen secara
individual menerangkan variasi. Pengujian ini dilakukan dengan menggunakan
tingkat
signifikansi 5%. Jika nilai signifikansi t < 0,05 artinya terdapat pengaruh yangsignifikan antara
satu variabel independen terhadap variabel dependen. Jika nilaisignifikansi t > 0,05 artinya tidak
terdapat pengaruh antara satu variabel independenterhadap variabel dependen asumsi klasik
dalam regresi
Asumsi klasik dalam regresi:
Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak.
Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji
normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering
terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel.
Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan
pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam
kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar
berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal,
atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut
tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan
nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah.
Demikian juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan
perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji
statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin
memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan
beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau
menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural,

akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah
condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)
Uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian kita
berasal dari populasi yang sebarannya normal. Uji ini perlu dilakukan karena semua perhitungan
statistik parametrik memiliki asumsi normalitas sebaran. Rumus yang digunakan untuk
melakukan suatu uji (t-test misalnya) dibuat dengan mengasumsikan bahwa data yang akan
dianalisis berasal dari populasi yang sebarannya normal. Data yang normal memiliki kekhasan
seperti mean, median dan modusnya memiliki nilai yang sama. Selain itu juga data normal
memiliki bentuk kurva yang sama, bell curve. Dengan mengasumsikan bahwa data dalam bentuk
normal, analisis statistic baru bisa dilakukan.
Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan analisis Chi
Square dan Kolmogorov-Smirnov.
(http://psikologistatistik.blogspot.com/2006/10/uji-asumsi-1-uji-normalitas.html)
Variabel pengganggu e dari suatu regresi disyaratkan berdistribusi normal. Hal ini untuk
memenuhi asumsi zero mean. Jika variabel e berdistribusi normal, maka variabel yang diteliti Y
juga berdistribusi normal. Untuk menguji normalitas e, dapat digunakan formula Jarqu Berra (JB
test). (http://www.damandiri.or.id/file/samsudiunmuhsolobab4.pdf)

Multikolinearitas
Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi
antara masing-masing variabel independen dalam model regresi. Multikolinearitas biasanya
terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model regresi.
Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya
melibatkan satu variable independen.
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara
variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi
di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel
terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya
motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika
sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi,
kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi
antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara
kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah
dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau
dengan melihat eigenvalues dan condition index (CI). Beberapa alternatif cara untuk mengatasi
masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat
atau bentuk first difference delta.
4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali
digunakan.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)
Pengujian multikolinearitas juga sering disebut uji independensi. Pengujian ini akan
melihat apakah antara sesama prediktor memiliki hubungan yang besar atau tidak. Jika hubungan
antara sesama prediktor kuat maka antara prediktor tersebut tidak independen.
Untuk menguji ada tidaknya multikolinearitas, kita dapat menggunakan nilai Toleransi atau VIF
(Variance Inflation Factor), dengan rumus sebagai berikut,
VIF = 1/(1-r_12^2 )m Tolerance = 1/VIF = (1-r_12^2)
Pengujian multikolinearitas diketahui dari nilai VIF setiap prediktor. Jika nilai VIF prediktor
tidak melebihi 10, maka dapat kita katakan bahwa data kita terbebas dari persoalan
multikolinearitas.
Ada beberapa prosedur yang dapat digunakan untuk mengatasi masalah multikolinearitas, seperti
pengunaan informasi apriori dari hubungan beberapa variable yang berkolinear, menghubungkan
data cross-sectional dan data time series, mengeluarkan suatu variabel atau beberapa variabel
bebas yang terlibat hubungan kolinear, melakukan transformasi variable dengan prosedur first
difference, melalui ln(logaritma) dan penambahan data baru dan juga melalui ridge regression.
Akan tetapi pada prakteknya prosedur penanggulangan yang telah disebutkan di atas sangat
tergantung sekali pada kondisi penelitian, misalnya penggunaan informasi apriori sangat
tergantung dari ada atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung
hubungan matematis antara variabel bebas yang saling berkolinear, prosedur mengeluarkan
variabel bebas yang berkolinear seringkali membuat banyak peneliti keberatan karena prosedur
ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur lainnya seperti
menghubungkan data cross sectional dan time series, prosedur first difference dan penambahan
data baru seringkali hanya memberikan efek penanggulangan yang kecil pada masalah
multikolinearitas.
Jika pada pengujian menunjukkan bahwa terdapat permasalahan multikolinearitas, maka
dilakukan penanggulangan untuk mengatasi masalah multikolinearitas tersebut. Kita bisa
menggunakan berbagai cara. Salah satunya menggunakan prosedur Principal Component

Analysis (PCA) untuk mengatasi multikolinearitas. Prosedur PCA pada dasarnya bertujuan untuk
menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal
ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi
variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali.
(http://akademik.unsri.ac.id/download/journal/files/padresources/PCA%20(PRCPL%20COMP
%20ANLS).pdf)

Heterokedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual
satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah
di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap
atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai
ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika
tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian
melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan
adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan
mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data
bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel
yang mengalami gangguan heteroskedastisitas.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi
ketidaksamaan varians dan residual satu pengamatan ke pengamatan yang lain. jika varians dari
residual satu pengamatan ke pengamatan yang lain tetap, maka disebut homoskedastisitas dan
jika berbeda disebut heteroskedastisitas. Model regresi yang baik adalah yang homoskedastisitas
atau tidak terjadi heteroskedastisitas.
Uji heteroskedastisitas dilakukan dengan menggunakan uji Glejser, yang dilakukan dengan
meregresikan nilai absolut residual yang diperoleh dari model regresi sebagai variabel dependen
terhadap semua variabel independen dalam model regresi. Apabila nilai koefisien regresi dari
masing-masing variabel bebas dalam model regresi ini tidak signifikan secara statistik, maka
dapat disimpulkan tidak terjadi heteroskedastisitas (Sumodiningrat. 2001 : 271).
(http://jurnal-sdm.blogspot.com/2009/04/uji-asumsi-klasik-regresi-berganda.html)
Autokorelasi

Uji autokorelasi digunakan untuk melihat apakah ada hubungan linear antara error serangkaian
observasi yang diurutkan menurut waktu (data time series). Uji autokorelasi perlu dilakukan
apabila data yang dianalisis merupakan data time series (Gujarati, 1993).
Dimana,
d = nilai Durbin Watson
ei = jumlah kuadrat sisa
Nilai Durbin Watson kemudian dibandingkan dengan nilai d-tabel. Hasil perbandingan akan
menghasilkan kesimpulan seperti kriteria sebagai berikut:
Jika d < dl, berarti terdapat autokorelasi positif
Jika d > (4 dl), berarti terdapat autokorelasi negatif
Jika du < d < (4 dl), berarti tidak terdapat autokorelasi
Jika dl < d < du atau (4 du), berarti tidak dapat disimpulkan
(http://ariyoso.wordpress.com/2009/11/27/multikolinearitas-dan-autokorelasi/)
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan
periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat
pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara
observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat
inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan
tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti
terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu
rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang
relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan
rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan
pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan
secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek
Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test
dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan
data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum
(generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel
lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang 1.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)
Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan
linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model

dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel
terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan
linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji
linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat
linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara
dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange
Multiplier.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)