Anda di halaman 1dari 64

UJI ASUMSI

KLASIK

Tujuan Pengajaran:
Mengerti apa yang dimaksud dengan
uji asumsi klasik
Mengerti item-item asumsi
Menjelaskan maksud item-item asumsi
Menyebutkan nama-nama asumsi
yang harus dipenuhi
Mengerti apa yang dimaksud dengan
autokorelasi

Mengerti apa yang dimaksud dengan


Multikolinearitas
Mengerti apa yang dimaksud dengan
Heteroskedastisitas
Mengerti apa yang dimaksud dengan
Normalitas
Menjelaskan timbulnya masalahmasalah dalam uji asumsi klasik

Menjelaskan dampak dari autokorelasi,


heteroskedastisitas, multikolinearitas,
normalitas
Menyebutkan alat deteksi dari
masalah-masalah tersebut

Menggunakan sebagian alat-alat


deteksi
Menjelaskan keterkaitan asumsiasumsi
Menjelaskan konsekuensi-konsekuensi
dari Asumsi

A. Uji
Autokorelasi

A.1. Pengertian
autokorelasi
Autokorelasi adalah keadaan dimana
variabel gangguan padaperiode
tertentu berkorelasi dengan variabel
gangguanpada periodelain.

Asumsi terbebasnya autokorelasi


ditunjukkan oleh nilai e yang
mempunyai rata-rata nol, dan
variannya konstan.

A.2. Sebab-sebab
Autokorelasi

1. Kesalahan dalam pembentukan


model,
2. Tidak memasukkan variabel
yangpenting.
3. Manipulasi data
4. Menggunakan data yang tidak
empiris

A.3. Akibat Autokorelasi


Akibatnya adalah nilai t hitung akan
menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b
(t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau
bersifat tidak pasti (misleading).
( Karena adanya masalah korelasi
dapat menimbulkan adanyabias
pada hasil regresi.)

1. Uji Durbin-Watson (DW


Test).

dapat pula ditulis dalam


rumus sebagai berikut:

DW test ini terdapat


beberapa asumsi penting

1. Terdapat intercept dalam model


regresi.
2. variabel penjelasnya tidak random
(nonstochastics).

3. Tidak ada unsur lag dari variabel


dependen di dalam model.
4. Tidak ada data yang hilang.
5. t = t 1 + t

Langkah-langkah pengujian
autokorelasi menggunakan uji Durbin
Watson (DW test) dapat dimulai
dari menentukan hipotesis.
(H)erdapat autokorelasi positif, atau,
terdapat autokorelasi negatif.

Terdapat beberapa standar keputusan


yang perlu dipedomani ketika
menggunakan DW test, yang
semuanya menentukan lokasi dimana
nilai DW berada.

Jelasnya adalah sebagai


berikut:
DW < dL = terdapat atokorelasi positif
dL< DW <dU = tidak dapat disimpulkan
(inconclusive)
dU > DW >4-dU = tidak terdapat
autokorelasi
4-dU < DW <4-dL = tidak dapat
disimpulkan
(inconclusive)
DW > 4-dL = terdapat autokorelasi negatif

Dimana:
DW = Nilai Durbin-Watson d statistik
dU = Nilai batas atas (didapat dari
tabel)
dL= Nilai batas bawah (didapat dari
tabel)

Ketentuan-ketentuan daerah hipotesis


pengujian DW dapat diwujudkan
dalam bentuk gambar sebagai
berikut:

Gambar 3.3.: Daerah Uji


Durbin Watson

Bantuan dengan spss: 109-110

()=5%,
N = 22
Prediktor : 2
batas atas (U) =1,54
sedang batas bawah (L) = 1,15.
DW = 0,883

0,883 yang berarti lebih kecil dari nilai


batas bawah, maka koefisien
autokorelasi lebih kecil dari nol.
Dengan demikian dapat disimpulkan
bahwa hasil regresi tersebut belum
terbebas dari masalah autokorelasi
positif.

Dengan katalain, Hipotesis nol (H)


yang menyatakan tidak terdapat
masalah autokorelasi dapat ditolak,
sedang hipotesis nol (H) yang
menyatakan terdapat masalah
autokorelasi dapat diterima

Uraian di atas
dapat pula dijelaskan dalam bentuk
gambar sbb

B. Uji Normalitas
Tujuan dilakukannya uji normalitas
adalah untuk menguji apakah variabel
penganggu (e) memiliki distribusi
normal atau tidak.

Beberapa cara untuk melakukan


uji normalitas, antara lain:
1. tendesi sentral (mean median = 0)
2. Menggunakan formula Jarque Bera
(JB test),

formula Jarque Bera (JB


test),

dimana:
S = Skewness (kemencengan)
distribusi data
K= Kurtosis (keruncingan)

Skewness

Kurtosis

Bantuan SPSS : Hal 115 - 116


3) Mengamati sebaran data, dengan
melakukan hitungan-hitungan berapa
prosentase data observasi dan
berada di area mana.

Untuk menentukan posisi


normal dari sebaran data,
langkah awal yang dilakukan
adalah menghitung standar
deviasi.

SD1 = 68 %
SD2 = 95%
SD3 = 99,7 %

Penentuan area ini penting, karena sebaran


data yang dikatakan normal apabila
tersebar sebagai berikut:

Sebanyak 68% dari observasi


berada pada area SD1
Sebanyak 95% dari sisanya berada
pada area
SD2
Sebanyak 99,7% dari sisanya berada
pada area SD3

sebaran data yang


dikatakan normal

Apabila data tidak normal, maka


diperlukan upaya untuk mengatasi
seperti: memotong data yang out
liers, memperbesar sampel, atau
melakukan transformasi data.

Data yang tidak normal juga dapat


dibedakan dari tingkat
kemencengannya (skewness). Jika
data cenderung
menceng ke kiri disebut positif
skewness, dan jika data cenderung
menceng ke kanan disebut negatif
skewness. Data dikatakan normal jika
datanya simetris.

Lihat gambar berikut:

Ilustrasi:
Mean : 46 kg
Sd = 5 kg
68% x 30 = 10: (41-46) kg
10 : (46-52) kg
4 (36 41 ) kg
5 (51 56 ) kg
1 (> 36) Kg)

C. Uji Heteroskedastisitas

C.1. Pengertian Heteroskedastisitas


Model akan menghadapi masalah
heteroskedastisitas.
Heteroskedastisitas muncul apabila
kesalahan (e) atau residual dari model
yang diamati tidak memiliki varians
yang konstan dari satu observasi ke
observasi lainnya

rumus regresi diperoleh dengan


asumsi bahwa variabel pengganggu
(error) atau e, diasumsikan memiliki
variabel yang konstan (rentangan e
kurang lebih sama). Apabila terjadi
varian e tidak konstan, maka
kondisi tersebut dikatakan tidak
homoskedastik atau mengalami
heteroskedastisitas

C.2. Konsekuensi
Heteroskedastisitas
1. Sb menjadi bias
2. nilai b bukan nilai yang terbaik.
3. Munculnya masalah
heteroskedastisitas yang
mengakibatkan nilai Sb menjadi
bias, akan berdampak pada nilai t
dan nilai F yang menjadi tidak
dapat ditentukan.

Lain halnya, jika asumsi ini tidak


terpenuhi, sehingga variance
residualnya berubah-ubah sesuai
perubahan observasi, maka akan
mengakibatkan nilai Sb yang
diperoleh dari hasil regresi akan
menjadi bias.

C.3. Pendeteksian
Heteroskedastisitas
Untuk mendeteksi ada tidaknya
heteroskedastisitas, dapat dilakukan
dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearmans
Rank Correlation, dan uji Whyte
menggunakan Lagrange Multiplier
Membandingkan sebaran data pada
scatter plot

menggunakan uji Arch,


e = a + b + u .
Cari R
Kalikan R dengan n (sampel)/ R x n.

Jika R2 x N lebih besar dari chi-square


(2) tabel, maka standarerror
mengalami heteroskedastisitas.
Sebaliknya, jika R2 x N lebih kecil dari
chi-square (2) tabel, maka standar
error telah bebas dari masalah
heteroskedastisitas, atau telah
homoskedastis.

Masalah heteroskedastisitas lebih


sering muncul dalam data cross
section dari pada data time series
Karena dalam data cross section
menunjukkan obyek yang berbeda dan
waktu yang berbeda pula. Antara
obyek satu dengan yang lainnya tidak
ada saling keterkaitan, begitu pula
dalam hal waktu.

Sedangkan data time series, antara


observasi satu dengan yang lainnya
saling mempunyai kaitan. Ada trend
yang cenderung sama. Sehingga
variance residualnya juga cenderung
sama.

D. Uji Multikolinieritas
D.1. Pengertian Multikolinearitas
Multikolinearitas: Multikolinieritas
adalah suatu keadaan dimana
terjadi korelasi linear yang perfect
atau eksak di antara variabel penjelas
yang dimasukkan ke dalam model.

Sebagai gambaran penjelas,

D.2. Konsekuensi
Multikolinearitas
Apabila belum terbebas dari masalah
multikolinearitas akan menyebabkan
nilai koefisien regresi (b) masingmasing variabel bebas dan nilai
standar error-nya (Sb) cenderung bias,
dalam arti tidak dapat ditentukan
kepastian nilainya, sehingga akan
berpengaruh pula terhadap nilai t

D.3. Pendeteksian
Multikolinearitas
Terdapat beragam cara untuk
menguji multikolinearitas, di antaranya:
menganalisis matrix korelasi dengan
Pearson Correlation
atau dengan
Spearmans Rho Correlation,
melakukan regresi partial dengan
teknik auxilary regression,

pendapat Gujarati (1995:335) yang


mengatakan bahwa bila korelasi
antara dua variabel bebas melebihi
0,8 maka multikolinearitas menjadi
masalah yang serius.

Gujarati juga menambahkan bahwa,


apabila korelasi antara variabel
penjelas tidak lebih besar dibanding
korelasi variabel terikat dengan
masing-masing variabel penjelas,
maka dapat dikatakan tidak terdapat
masalah yang serius.

Dengan demikian, dapat


disimpulkan bahwa apabila angka
korelasi lebih kecil dari 0,8 maka
dapat dikatakan telah terbebas dari
masalah multikolinearitas.

Dalam kaitan adanya kolinear yang


tinggi sehingga menimbulkan tidak
terpenuhinya asumsi terbebas dari
masalah multikolinearitas, dengan
smempertimbangkan sifat data dari
cross section, maka bila tujuan
persamaan hanya sekedar untuk
keperluan prediksi, hasil regresi
dapat ditolerir, sepanjang nilai t
signifikan.