Classical Assumption
Uji Asumsi klasik adalah analisis yang dilakukan untuk menilai apakah di
dalam sebuah model regresi linear Ordinary Least Square (OLS) terdapat
masalah-masalah asumsi klasik.
Berdasarkan pengertian uji asumsi klasik di atas, maka mungkin akan muncul
beberapa pertanyaan, yaitu antara lain:
Regresi linear OLS adalah sebuah model regresi linear dengan metode
perhitungan kuadrat terkecil atau yang di dalam bahasa inggris disebut
dengan istilah ordinary least square. Di dalam model regresi ini, ada beberapa
syarat yang harus dipenuhi agar model peramalan yang dibuat menjadi valid
sebagai alat peramalan. Syarat-syarat tersebut apabila dipenuhi semuanya,
maka model regresi linear tersebut dikatakan BLUE. BLUE adalah singkatan
dari Best Linear Unbiased Estimation.
Pengertian Asumsi Klasik
Asumsi klasik adalah syarat-syarat yang harus dipenuhi pada model regresi
linear OLS agar model tersebut menjadi valid sebagai alat penduga.
Asumsi Klasik pada Regresi Linear
Sebelum kita membahas lebih jauh apa saja asumsi klasik yang harus dipenuhi pada
regresi linear OLS, alangkah lebih baik jika kita mengetahui dulu bahwa regresi OLS
ada 2 macam, yaitu: regresi linear sederhana dan regresi linear berganda.
Regresi Linear sederhana atau disebut dengan simple linear regression, adalah
regresi linear dengan satu variabel bebas dan satu variabel terikat. Sedangkan
regresi linear berganda atau disebut juga dengan multiple linear regression adalah
regresi linear dengan satu variabel terikat dan beberapa variabel bebas. Arti kata
beberapa maksudnya adalah 2 variabel atau lebih.
Jenis Uji Asumsi Klasik Pada Regresi Linear
Dengan adanya dua jenis yang berbeda pada regresi linear, maka syarat atau
asumsi klasik pada regresi linear juga ada dua macam.
Uji Asumsi Klasik Pada Regresi Linear Sederhana
Normalitas,
Heteroskedastisitas,
Autokorelasi
Berdasarkan penjelasan di atas, terlihat jelas bahwa asumsi klasik antara regresi
linear sederhana dan berganda hampir sama. Letak perbedaannya hanya pada uji
multikolinearitas, dimana syarat tersebut hanya untuk regresi linear berganda.
1. Uji Normalitas
Uji Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran
data pada sebuah kelompok data atau variabel, apakah sebaran data tersebut
berdistribusi normal ataukah tidak.
Uji Normalitas berguna untuk menentukan data yang telah dikumpulkan berdistribusi
normal atau diambil dari populasi normal. Metode klasik dalam pengujian normalitas suatu
data tidak begitu rumit. Berdasarkan pengalaman empiris beberapa pakar statistik, data
yang banyaknya lebih dari 30 angka (n > 30), maka sudah dapat diasumsikan berdistribusi
normal. Biasa dikatakan sebagai sampel besar.
Namun untuk memberikan kepastian, data yang dimiliki berdistribusi normal atau tidak,
sebaiknya digunakan uji normalitas. Karena belum tentu data yang lebih dari 30 bisa
dipastikan berdistribusi normal, demikian sebaliknya data yang banyaknya kurang dari 30
belum tentu tidak berdistribusi normal, untuk itu perlu suatu pembuktian. uji statistik
normalitas yang dapat digunakan diantaranya Chi-Square, Kolmogorov Smirnov, Lilliefors,
Shapiro Wilk, Jarque Bera.
2 uji normalitas yang sangat sering dipakai oleh peneliti:
Uji Kolmogorov Smirnov
Uji kolmogorov smirnov memanglah uji yang paling populer, tapi sebenarnya uji
tersebut mempunyai sedikit kelemahan, yaitu reliable atau handal pada
pengujian dengan sampel besar > 200.
Bagaimana jika sampel kurang dari itu? Dalam SPSS kita bisa menggunakan
Shapiro Wilk dan Lilliefors (Adaptasi dan pengembangan dari Uji Kolmogorov
Smirnov).
Dan hypothesis:
H0 (distribusi normal)
Ha (disribusi tidak normal)
Shapiro Wilk
Untuk menentukan apakah data anda berdistribusi normal menggunakan shapiro
wilk, maka pada SPSS cukup anda lihat nilai Sig. pada kolom Shapiro-Wilk. Nilai sig
itu berarti signifikansi atau boleh disebut p value atau nilai probabilitas. Pada
contoh di atas nilainya sebesar 0,710 lebih dari 0,05, maka dapat dikatakan data
berdistribusi Normal atau yang berarti menerima H0.
Lilliefors
Hampir sama dengan shapiro wilk di atas, cara interprestasinya adalah dengan
melihat nilai Sig. pada kolom Kolmogorov-Smirnov. Pada contoh di atas nilainya
0,200 lebih dari 0,05, maka data berdistribusi Normal atau yang berarti menerima
H0.
2. Uji Autokorelasi
Uji autokorelasi digunakan untuk mengetahui ada atau tidaknya penyimpangan
asumsi klasik autokorelasi yaitu korelasi yang terjadi antara residual pada satu
pengamatan dengan pengamatan lain pada model regresi.
Prasyarat yang harus terpenuhi adalah tidak adanya autokorelasi dalam model
regresi. Metode pengujian yang sering digunakan adalah dengan uji Durbin Watson
(Uji DW) dengan ketentuan sebagai berikut:
1. Jika d lebih kecil dari dL atau lebih besar dari (4-dL)maka hipotesis nol ditolak, yang
berarti terdapat autokorelasi.
2. Jika d terletak antara dL dan dU atau diantara (4-dU) dan (4-dL), yang berarti tidak
ada autokorelasi.
3. Jika d terletak antara dL dan dU atau diantara (4-dU) dan (4-dL), maka tidak
menghasilkan kesimpulan yang pasti.
Nilai dU dan dL dapat diperoleh dari table statistik Durbin Watson yang bergntung
banyaknya observsi dan banyaknya variabel yang menjelaskan (variabel bebas).
DW: 1,641
Pada titik-titik signfikansi dL dan dU 5 %, maka nilai:
dU: 1,59 dan dL: 1,35 → nilai n = 36 serta k (variabel bebas) = 2
Maka, nilai 4-dU: 2,41 dan 4-dL: 2,65
1,35 1,59 1,641 2,41 2,65