Anda di halaman 1dari 3

Uji Asumsi Klasik OLS

1. Normalitas

Salah satu asumsi klasik yang harus dipenuhi dalam analisis regresi linier yaitu error
berdistribusi normal atau ε N (0 ,σ 2). Uji Kolmogorov-Smirnov merupakan statistik uji
untuk mengetahui apakah data berdistribusi normal atau tidak. Untuk menguji asumsi
kenormalan digunakan hipotesis statistik sebagai berikut:

H0 : error berdistribusi normal

H1 : error tidak berdistribusi normal

Dasar pengambilan keputusan dalam uji Kolmogorov-Smirnov adalah sebagai berikut:

 Apabila probabilitas uji Kolmogorov-Smirnov signifikan secara statistik (p<0,05)


maka H0 ditolak, yang berarti data berdistribusi tidak normal.
 Apabila probabilitas uji Kolmogorov-Smirnov tidak signifikan secara statistik
(p>0,05) maka H0 diterima, yang berarti data berdistribusi normal.
2. Homoskedastisitas

Salah satu asumsi penting dalam model regresi linear klasik adalah bahwa kesalahan
penganggu (ε i) mempunyai varian yang sama, artinya Var(ε i) = E(ε i2 ) = σ 2 untuk semua i, i =
1,2,3,…, n. Asumsi ini disebut homoskedastisitas (Supranto, 2004:46).

Untuk menguji apakah error pada regresi linier bersifat homoskedastis, dapat
dilakukan melalui uji Breuech Pagan. Hipotesis yang digunakan dalam uji homoskedastisitas
ragam error adalah:

H0 : ragam error bersifat homoskedastis

H1 : ragam error bersifat heteroskedastis

Sedangkan statistik uji Breuech Pagan adalah :

R 2ε /k
2

F= 2
F α (k ,n−k−1)
1−R /(n−k−1)
ε
2

Dengan k : banyak peubah bebas


Apabila statistik uji F< F α (k , n−k−1) atau p−value>α maka H0 ditolak, artinya ragam
error bersifat heteroskedastis.

3. Multikolinearitas

Istilah multikolinearitas digunakan untuk menunjukkan adanya hubungan linier diantara


variabel – variabel bebas dalam model regresi. Model regresi yang baik seharusnya tidak
terjadi korelasi diantara variabel independen. Jika terbukti ada multikolinearitas, sebaiknya
salah satu variabel independen yang ada dikeluarkan dari model, lalu pembuatan model
regresi diulang kembali (Santoso, 2010:234).

Multikolinearitas terjadi dengan ketentuan sebagai berikut:

CI < 10 : Multikolinearitas rendah

10 ≤ CI ≤ 30 : Multikolineartias sedang

CI > 30 : Multikolinearitas tinggi

Uji Autokorelasi Spasial

Autokorelasi spasial adalah penilaian korelasi antar pengamatan suatu variabel. Jika
pengamatan X1, X2,…,Xn menunjukkan saling ketergantungan terhadap ruang, maka data
tersebut dapat dikatakan terautokorelasi secara spasial. Autokorelasi spasial adalah ilmu yang
mempelajari tentang hubungan beberapa nilai atribut dari suatu objek spasial (Buyong, 2006).
Autokorelasi spasial dianggap penting karena kebanyakan dari perhitungan statistik berdasarkan
pada asumsi nilai dari observasi beberapa sampel independen antara satu dan yang lainnya.

 Statistik Moran
Koefisien Moran (I) adalah pengukuran autokorelasi spasialyang dapat diaplikasikan
dalam interval yang berhubungan dengan titik atau area. Hipotesis yang digunakan
adalah:
H0 : I = 0 (tidak ada dependensi spasial antar korelasi)
H1 : I ≠ 0 (ada dependensi spasial antar korelasi)
Untuk data area, persamaan koefisien moran adalah sebagai berikut:
W

∑ ( x i ¿− X́ )( x j − X́ )
i=1
I =n W
¿
2
W ∑ ( x¿¿ i− X́) ¿
i=1

Dimana n adalah jumlah area; W adalah jumlah penghubung; x i dan x j adalah nilai
attribute dari dua area yang bersisian, dan X́ adalah nilai tengah dari seluruh nilai x.
Untuk menguji nilai dari uji Moran dapat menggunakan rumus berikut:

I −E I
Z=
σI

Pengambilan keputusan tolak H0 jika |Zhitung| > Z α . Nilai dari indek I adalah antar -1 dan
2

1, jika I > I0, maka data berkorelasi positif.

 Local Indicators of Spatial Association (LISA)


LISA merupakan versi lokal dari Moran’s I dan Geary’s C (Anselin, 2005). Untuk
mengukur statistik local Moran dapat menggunakan rumus sebagai berikut:
i
I i=Z i ∑ W ij Z j
j

Dimana Zi dan Z j adalah standar deviasi dari rata – rata yang diambil untuk nilai
koresponden x yang didapat dari rumus:

x j− X́
Z=
s

Anda mungkin juga menyukai