Anda di halaman 1dari 11

RINGKASAN MATERI KULIAH

UJI ASUMSI KLASIK





Dosen Pengampu: Dr. Salamah Wahyuni SU











Oleh :
KELOMPOK 1
DEVI NARULITASARI S431402009
DWI RAHAYU S431402011




MAGISTER AKUNTANSI
FAKULTAS EKONOMI
UNIVERSITAS SEBELAS MARET
SURAKARTA
2014

UJI ASUMSI KLASIK

Uji asumsi klasik merupakan persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang
tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik
atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada
analisis regresi linear, misalnya uji multikolinearitas tidak dapat dipergunakan pada analisis
regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang
bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang
dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang
diharapkan dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Terdapat lima uji asumsi klasik, yaitu uji multikolinearitas, uji heteroskedastisitas, uji
normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan
uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.
Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang
tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah
memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

1. UJI NORMALITAS
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau
tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji
normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya.
Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-
masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai
residualnya bukan pada masing-masing variabel penelitian.
Uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian kita
berasal dari populasi yang sebarannya normal. Uji ini perlu dilakukan karena semua
perhitungan statistik parametrik memiliki asumsi normalitas sebaran. Rumus yang digunakan
untuk melakukan suatu uji (t-test misalnya) dibuat dengan mengasumsikan bahwa data yang
akan dianalisis berasal dari populasi yang sebarannya normal. Data yang normal memiliki
kekhasan seperti mean, median dan modusnya memiliki nilai yang sama. Selain itu juga data
normal memiliki bentuk kurva yang sama, bell curve.
Variabel pengganggu e dari suatu regresi disyaratkan berdistribusi normal. Hal ini
untuk memenuhi asumsi zero mean. Jika variabel e berdistribusi normal, maka variabel yang
diteliti Y juga berdistribusi normal.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot dan Kurtosis
atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya
adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di
antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas
dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih
baik dari pada pengujian dengan metode grafik.

2. UJI MULTIKOLINEARITAS
Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi
antara masing-masing variabel independen dalam model regresi. Multikolinearitas biasanya
terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model
regresi. Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana
yang hanya melibatkan satu variable independen. Indikasi terdapat masalah multikolinearitas
dapat kita lihat dari kasus-kasus sebagai berikut: Nilai R2 yang tinggi (signifikan), namun nilai
standar error dan tingkat signifikansi masing-masing variabel sangat rendah. Perubahan kecil
sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati
Memang belum ada kriteria yang jelas dalam mendeteksi masalah multikolinearitas
dalam model regresi linier. Selain itu hubungan korelasi yang tinggi belum tentu berimplikasi
terhadap masalah multikolinearitas. Tetapi kita dapat melihat indikasi multikolinearitas
dengan tolerance value dan yang paling umum digunakan adalah varians inflation faktor
(VIF).
Hingga saat ini tidak ada kriteria formal untuk menentukan batas terendah dari nilai
toleransi atau VIF. Berikut ini merupakan syarat data penelitian dikatakan terjadi
multikolonieritas atau tidak (Ghozali, 2011):
1. Tolerance value < 0,10 dan VIF > 10 maka terjadi multikolinearitas atau terdapat
korelasi antar variabel independen.
2. Tolerance value > 0,10 dan VIF < 10 maka tidak terjadi multikolinearitas atau tidak
terdapat korelasi antar variabel
Multikolinearitas adalah untuk melihat ada atau tidaknya korelasi (keterkaitan) yang
tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada
korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel
bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model
regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan
variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk
mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi
tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan
kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai
berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar
kuadrat atau bentuk first difference delta.
4. Dalam tingkat lanjut dapat digunakan metode regresi bayesian yang masih jarang
sekali digunakan.
Pengujian multikolinearitas juga sering disebut uji independensi. Pengujian ini akan
melihat apakah antara sesama prediktor memiliki hubungan yang besar atau tidak. Jika
hubungan antara sesama prediktor kuat maka antara prediktor tersebut tidak independen.

Faktor-faktor yang Mempengaruhi Multikolinearitas
a. Metode pengumpulan data yang digunakan
b. Batasan yang ada pada model atau populasi yang diambil sampelnya
c. Spesifikasi model
d. Model yang overdetermined

Deteksi Multikolinearitas

tinggi tetapi sedikit rasio t signifikan


Korelasi berpasangan yang tinggi diantara variabel-variabel penjelas
Pengujian korelasi parsial
Regresi subside atau tambahan

Apakah Multikolinearitas Bisa Dianggap Hal yang Buruk?
Jawaban tersebut adalah tergantung kepada tujuan pembelajaran. Jika tujuan
pembelajaran adalah menggunakan model untuk memprediksi atau meramalkan nilai rata-
rata masa depan variabel tidak bebas, kolinearitas menurut teori mungkin tidak jelek. Disisi
lain, jika tujuan pembelajaran tidak hanya prediksi tetapi juga estimasi yang bias dihandalkan
atau parameter-parameter individual model yang dipilih, maka kolinearitas yang serius
mungkin buruk karena akan membawa kesalahan standar estimasi yang besar.

Apa yang Perlu Dilakukan dengan Multikolinearitas: Langkah Perbaikan
a. Tidak melakukan apapun
b. Prosedur peraturan baku:
Mengeluarkan variabel dari model
Memperoleh data tambahan atau Sampel baru
Mengkaji ulang modelnya
Informasi sebelumnya tentang Parameter
Transformasi variabel
Langkah perbaikan yang lainnya
3. UJI HETEROSKEDASTISITAS
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians
dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi
persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke
pengamatan yang lain tetap atau disebut homoskedastisitas.
Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi
ketidaksamaan varians dan residual satu pengamatan ke pengamatan yang lain. Jika varians
dari residual satu pengamatan ke pengamatan yang lain tetap, maka disebut
homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model regresi yang baik
adalah yang homoskedastisitas atau tidak terjadi heteroskedastisitas.
Uji heteroskedastisitas dilakukan dengan menggunakan uji Glejser, yang dilakukan
dengan meregresikan nilai absolut residual yang diperoleh dari model regresi sebagai
variabel dependen terhadap semua variabel independen dalam model regresi. Apabila nilai
koefisien regresi dari masing-masing variabel bebas dalam model regresi ini tidak signifikan
secara statistik, maka dapat disimpulkan tidak terjadi heteroskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan
memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik
didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah,
menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik
yang dapat digunakan adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah
dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika
semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel
dengan variabel yang mengalami gangguan heteroskedastisitas.

Sifat Heteroskedastisitas
Bahwa heteroskedastisitas biasanya ditemukan dalam data lintas sektoral dan bukan
dalam data deret berkala. Dalam data lintas sektoral umumnya dihadapkan dengan anggota
suatu populasi pada waktu tertentu.

Pendeteksian Heteroskedastisitas
Meskipun secara teoritis pencatatan konsekuensi heteroskedastisitas mudah
dilakukan, sering kali deteksinya dalam situasi konkret bukan hal yang mudah. Ini bisa
dimengerti karena

bisa dikenali hanya jika kita memiliki seluruh populasi Y.


a. Metode Informal
Sifat Alamiah problem
Sifat masalah sering kali terkait dengan ada tidaknya heteroskedastisitas. Dalam lintas
data sektoral yang melibatkan unit-unit heterogen, heteroskedastisitas mungkin
cenderung dijadikan aturan ketimbang pengecualian.
Metode Grafis
Dalam analisis regresi terapan, pengujian residu yang didapatkan dari persamaan
regresi yang digunakan selalau merupakan praktik yang baik. Residu-residu ini bias
dipetakan terhadap observasinya sendiri atau terhadap satu variabel penjelas atau
lebih atau terhadap

nilai mean taksiran

Plot residu seperti ini sering member


petunjuk tentang apakah satu asumsi atau lebih dari CLRM berlaku atau tidak.
b. Metode Formal
Uji Park
ln


Langkah-langkah:
1. Kerjakan regresi asal terlepas dari adanya masalah heteroskedastiisitas
2. Dari regresi ini, dapatkan residu

kuadratkan, dan hitung nilai log-nya


3. Kerjakan regresi dengan menggunakan variabel penjelas dalam model asal
4. Tes hipotesis nol bahwa

yakni tidak ada heteroskedastisitas


5. Jika hipotesis 0 tidak ditolak maka

dalam regresi dapat memberikan nilai


varians umum atau homoskedastis

.
Uji Glejser
Mirip dengan Uji Park. Setelah mendapatkan residu

dari model asal, Glejser


mempertimbangkan regresi nilai absolut

| terhadap variabel X yang dianggap


berhubungan dekat dengan varians heteroskedastisitas

.
Uji Heteroskedastisitas Umum White


1. Mula-mula estimasi regresi
2. Lalu kerjakan regresi pelengkap


3. Tentukan nilai

dari regresi pelengkap


n.


4. Jika nilai kai-kuadrat yang diperoleh dari persamaan n.

melebihi jilai kai-


kuadrat kritis pada tingkat signifikasi yang dipilih, atau jika nilai p nilai kai-kuadrat
yang dihitung cukup rendah berarti bias menolak hipotesis 0 tentang tidak
adanya heteriskadtisitas.
Uji Heteroskedastisitas Lainnya
1. Uji korelasi peringkat Spearman
2. Uji Goldfeld-Quandt
3. Uji homogenitas varians Bartlett
4. Uji Peak
5. Uji Breusch-Pagan
6. Uji CUSUMSQ

Apa yang harus Dilakukan Bila Ditemukan Adanya Heteroskedastisitas: Langkah
Perbaikan
Ketika

diketahui: Metode Kuadrat Terkecil Tertimbang (Weight Least Squares/ WLS)


Ketika

yang sebenarnya tidak diketahui


Respesifikasi model

4. UJI AUTOKORELASI
Uji autokorelasi digunakan untuk melihat apakah ada hubungan linear antara error
serangkaian observasi yang diurutkan menurut waktu (data time series). Uji autokorelasi perlu
dilakukan apabila data yang dianalisis merupakan data time series (Gujarati, 1993) Nilai
Durbin Watson kemudian dibandingkan dengan nilai d-tabel. Hasil perbandingan akan
menghasilkan kesimpulan seperti kriteria sebagai berikut: Jika d < dl, berarti terdapat
autokorelasi positif. Jika d > (4 dl), berarti terdapat autokorelasi negative. Jika du < d < (4
dl), berarti tidak terdapat autokorelasi. Jika dl < d < du atau (4 du), berarti tidak dapat
disimpulkan.
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t
dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah
untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada
korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah
pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data
tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat
inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh
lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga
mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun,
pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu
dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua
variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada
penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya
memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan
Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange
Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan
mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk
persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan
dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas,
sehingga data observasi menjadi berkurang 1.

Sifat Autokorelasi
Autokorelasi biasanya berhubungan erat dengan deret berkala (data yang diurutkan
dalam urutan kronologis) meskipun seperti ditunjukkan definisi sebelumnya, otokorelasi bias
pula terjadi dalam data lintas sektoral. Dalam hal ini, otokorelasi ini disebut korelasi ruang
(spatial correlation yaitu korelasi dalam ruang dan bukan dalam waktu).

Penyebab Autokorelasi
Inersia (kelembaman)
Kesalahan (-Kesalahan) Spesifikasi Model
Fenomena Sarang Laba-laba
Manipulasi Data

Konsekuensi Autokorelasi
Estimator kuadrat terkecil masih linear dan tidak bias
Tapi estimator tersebut tidak efisien, artinya tidak memiliki varians minimum bila
dibandingkandengan prosedur yang mempertimbangkan otokorelasi
Varians taksiran dari estimator OLS bersifat bias
Oleh sebab itu, tes t dan F yang biasa umumnya tidak handal
Rumusan umum untuk menghitung varian kesalahan yakni

= RSS/df (jumlah
residu/derajat kebebasan) merupakan estimator bias dari

yang sebenarnya dan dalam


sejumlah kasus cenderung mengestimasi F terlalu rendah
Konsekuansinya

yang dihitung secara konvensional mungkin adalah ukuran


sesungguhnya tidak bias dihandalkan
Varians dan kesalahan standar peramalan yang dhitung secara konvensional mungkin
juga tidak efisien

Pendeteksian Autokorelasi
a. Metode Informal
Metode Grafis
Pengujian visual sederhana residu OLS , e, bias memberikn wawasan berharga bagi
kita tentang kemungkinan keberadaan otokorelasi diantara faktor-faktor kesalahan u.
b. Metode Formal
Uji d Durbin Watson
Statistik d Durbin-Watson :


Asumsi-asumsi yang mendasari statistik d:
1. Model regresi meliputi faktor titik potong
2. Variabel-variabel X bersifat nonstokhastik artinya nilai tetap dalam pengembaliam
sampel berulang
3. Gangguan

dihasilkan dengan mekanisme


=

+

-1 1
4. Regresi tidak mengandung nilai (-nilai) masa lalu variabel tidak bebas sebagai
salah satu variabel penjelas

Langkah Perbaikan
Menggunakan transformasi Prais-Winsten

Bagaimana Mengestimasi
= 1 Metode Selisih Pertama
yang Diestimasi dari d Statistik Durbin_Watson
yang Diestimasi dari Residu OLS,


Metode estimasi lainnya
a. Prosedur berulang Cochrane-Orcutt
b. Metode 2 Langkah Cochrane-Orcutt
c. Metode 2 Langkah Durbin
d. Prosedur Pencarian Hildreth-Lu
e. Metode Kemiripan Maksimum

5. UJI LINEARITAS
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai
hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena
biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas
dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan
merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear,
misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak,
uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut
bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat
linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil
observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau
uji Lagrange Multiplier.