Anda di halaman 1dari 16

Uji Asumsi Klasik

Classical Assumption
 Uji Asumsi klasik adalah analisis yang dilakukan untuk menilai apakah di
dalam sebuah model regresi linear Ordinary Least Square (OLS) terdapat
masalah-masalah asumsi klasik.

Berdasarkan pengertian uji asumsi klasik di atas, maka mungkin akan muncul
beberapa pertanyaan, yaitu antara lain:

1. Apa yang dimaksud dengan Regresi Linear OLS?

2. Apa yang dimaksud dengan Asumsi klasik?

3. Apa saja jenis asumsi klasik pada regresi OLS?


 Pengertian Regresi Linear OLS

Regresi linear OLS adalah sebuah model regresi linear dengan metode
perhitungan kuadrat terkecil atau yang di dalam bahasa inggris disebut
dengan istilah ordinary least square. Di dalam model regresi ini, ada beberapa
syarat yang harus dipenuhi agar model peramalan yang dibuat menjadi valid
sebagai alat peramalan. Syarat-syarat tersebut apabila dipenuhi semuanya,
maka model regresi linear tersebut dikatakan BLUE. BLUE adalah singkatan
dari Best Linear Unbiased Estimation.
 Pengertian Asumsi Klasik

Asumsi klasik adalah syarat-syarat yang harus dipenuhi pada model regresi
linear OLS agar model tersebut menjadi valid sebagai alat penduga.
Asumsi Klasik pada Regresi Linear

 Jenis Regresi Linear OLS

 Sebelum kita membahas lebih jauh apa saja asumsi klasik yang harus dipenuhi pada
regresi linear OLS, alangkah lebih baik jika kita mengetahui dulu bahwa regresi OLS
ada 2 macam, yaitu: regresi linear sederhana dan regresi linear berganda.

 Regresi Linear sederhana atau disebut dengan simple linear regression, adalah
regresi linear dengan satu variabel bebas dan satu variabel terikat. Sedangkan
regresi linear berganda atau disebut juga dengan multiple linear regression adalah
regresi linear dengan satu variabel terikat dan beberapa variabel bebas. Arti kata
beberapa maksudnya adalah 2 variabel atau lebih.
Jenis Uji Asumsi Klasik Pada Regresi Linear
Dengan adanya dua jenis yang berbeda pada regresi linear, maka syarat atau
asumsi klasik pada regresi linear juga ada dua macam.
Uji Asumsi Klasik Pada Regresi Linear Sederhana
 Normalitas,
 Heteroskedastisitas,
 Autokorelasi

Uji Asumsi Klasik Pada Regresi Linear Berganda


 Normalitas,
 Heteroskedastisitas,
 Multikollinearitas,
 Autokorelasi
 Perbedaan Asumsi Klasik Regresi Linear Sederhana dan Berganda

Berdasarkan penjelasan di atas, terlihat jelas bahwa asumsi klasik antara regresi
linear sederhana dan berganda hampir sama. Letak perbedaannya hanya pada uji
multikolinearitas, dimana syarat tersebut hanya untuk regresi linear berganda.
1. Uji Normalitas
 Uji Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran
data pada sebuah kelompok data atau variabel, apakah sebaran data tersebut
berdistribusi normal ataukah tidak.

 Uji Normalitas berguna untuk menentukan data yang telah dikumpulkan berdistribusi
normal atau diambil dari populasi normal. Metode klasik dalam pengujian normalitas suatu
data tidak begitu rumit. Berdasarkan pengalaman empiris beberapa pakar statistik, data
yang banyaknya lebih dari 30 angka (n > 30), maka sudah dapat diasumsikan berdistribusi
normal. Biasa dikatakan sebagai sampel besar.

 Namun untuk memberikan kepastian, data yang dimiliki berdistribusi normal atau tidak,
sebaiknya digunakan uji normalitas. Karena belum tentu data yang lebih dari 30 bisa
dipastikan berdistribusi normal, demikian sebaliknya data yang banyaknya kurang dari 30
belum tentu tidak berdistribusi normal, untuk itu perlu suatu pembuktian. uji statistik
normalitas yang dapat digunakan diantaranya Chi-Square, Kolmogorov Smirnov, Lilliefors,
Shapiro Wilk, Jarque Bera.
2 uji normalitas yang sangat sering dipakai oleh peneliti:
 Uji Kolmogorov Smirnov
Uji kolmogorov smirnov memanglah uji yang paling populer, tapi sebenarnya uji
tersebut mempunyai sedikit kelemahan, yaitu reliable atau handal pada
pengujian dengan sampel besar > 200.
 Bagaimana jika sampel kurang dari itu? Dalam SPSS kita bisa menggunakan
Shapiro Wilk dan Lilliefors (Adaptasi dan pengembangan dari Uji Kolmogorov
Smirnov).
Dan hypothesis:
H0 (distribusi normal)
Ha (disribusi tidak normal)

Dengan ketentuan sebagai berikut:


Jika Nilai Sig. Hitung < Sig artinya distribusi tidak normal
Jika Nilai Sig. Hitung > Sig artinya distribusi normal
Tutorial tentang Uji Normalitas dengan SPSS ini, dimana pada tutorial ini kita akan
melakukan uji normalitas dengan SPSS pada 1 variabel dengan 100 sampel.

Shapiro Wilk
 Untuk menentukan apakah data anda berdistribusi normal menggunakan shapiro
wilk, maka pada SPSS cukup anda lihat nilai Sig. pada kolom Shapiro-Wilk. Nilai sig
itu berarti signifikansi atau boleh disebut p value atau nilai probabilitas. Pada
contoh di atas nilainya sebesar 0,710 lebih dari 0,05, maka dapat dikatakan data
berdistribusi Normal atau yang berarti menerima H0.
Lilliefors
 Hampir sama dengan shapiro wilk di atas, cara interprestasinya adalah dengan
melihat nilai Sig. pada kolom Kolmogorov-Smirnov. Pada contoh di atas nilainya
0,200 lebih dari 0,05, maka data berdistribusi Normal atau yang berarti menerima
H0.
2. Uji Autokorelasi
Uji autokorelasi digunakan untuk mengetahui ada atau tidaknya penyimpangan
asumsi klasik autokorelasi yaitu korelasi yang terjadi antara residual pada satu
pengamatan dengan pengamatan lain pada model regresi.

Prasyarat yang harus terpenuhi adalah tidak adanya autokorelasi dalam model
regresi. Metode pengujian yang sering digunakan adalah dengan uji Durbin Watson
(Uji DW) dengan ketentuan sebagai berikut:
1. Jika d lebih kecil dari dL atau lebih besar dari (4-dL)maka hipotesis nol ditolak, yang
berarti terdapat autokorelasi.
2. Jika d terletak antara dL dan dU atau diantara (4-dU) dan (4-dL), yang berarti tidak
ada autokorelasi.
3. Jika d terletak antara dL dan dU atau diantara (4-dU) dan (4-dL), maka tidak
menghasilkan kesimpulan yang pasti.
Nilai dU dan dL dapat diperoleh dari table statistik Durbin Watson yang bergntung
banyaknya observsi dan banyaknya variabel yang menjelaskan (variabel bebas).
 DW: 1,641
 Pada titik-titik signfikansi dL dan dU 5 %, maka nilai:
dU: 1,59 dan dL: 1,35 → nilai n = 36 serta k (variabel bebas) = 2
 Maka, nilai 4-dU: 2,41 dan 4-dL: 2,65
1,35 1,59 1,641 2,41 2,65

Dapat disimpulkan bahwa residual tidak mengandung autokorelasi.


3. Uji Multikolinearitas
Multikolinearitas atau kolinearitas ganda (Multicollinearity) adalah adanya hubungan
linear antara variabel bebas (independent) dalam Model Regresi Ganda.
Jika hubungan linear antar variabel bebas dalam model regresi ganda adalah korelasi
sempurna, maka variabel-variabel tersebut mangalami perfect multicollinearity
(berkolinearitas ganda sempurna).

Pendeteksian multikolinearitas dapat dilihat melalui nilai Variance Inflation Factors


(VIF):
 Jika nilai VIF < 10 artinya tidak terdapat multikolinearitas
 Jika nilai VIF > 10 artinya terdapat multikolinearitas
 Nilai VIF untuk kedua variabel bebas yaitu penjualan dan biaya promosi
adalah lebih besar dari 10 yang artinya model tersebut mengandung
multikolinearitas.
4. Uji Heteroskedastisitas
Heteroskedastisitas adalah adanya ketidaksamaan varian dari residual untuk
semua pengamatan pada model regresi.
Mengapa dilakukan uji heteroskedastistias?
Untuk mengetahui adanya penyimpangan dari syarat-syarat asumsi klasik pada
model regresi, dimana dalam model regresi harus dipenuhi syarat tidak adanya
heteroskedastisitas.

Uji heteroskedastisitas dilakukan dengan cara meregresikan nilai absolute residual


dengan variabel-variabel independent dalam model. Dengan ketentuan
sebagai berikut:
Jika Nilai Sig. < Sig α artinya terjadi heteroskedastisitas
Jika Nilai Sig. > Sig α artinya tidak terjadi heteroskedastisitas
 Kesimpulannya: Apabila nilai signifikansi (Sig.) > 0,05 maka tidak terjadi gejala
Heteroskedastisitas
 Dari output di atas, maka tampak bahwa ketiga variabel tidak ada gejala
heteroskedastisitas karena Sig. > 0,05:
0,369 > 0,05
0,532 > 0,05
0,612 > 0,05

Anda mungkin juga menyukai