Anda di halaman 1dari 4

APLIKASI ANALISIS KUANTITATIF

RMK UJI ASUMSI KLASIK

OLEH :
Nama : Bintang Puspitasari
No. Absen : 20
NIM : 2007531219

Program Studi S1 Akuntansi


Fakultas Ekonomi dan Bisnis
Universitas Udayana
2021
A. Pengantar
Salah satu tujuan penggunaan model regresi adalah melakukan prediksi terhadap variable
terikat (Y). Berkaitan dengan hal itu, agar hasil prediksi tidak bias, maka dianggap perlu
diyakinkan kembali apakah model yang dibuat sudah valid dan tidak melanggar asumsi-asumsi
metode kuadrat terkecil, yaitu BLUE (Best, Linear, Unbias Estimator), yang sering disebut
asumsi klasik. Untuk itu dilakukan pelacakaan atau pengujian asumsi klasik yang meliputi: 1)
Uji Normalitas residual, 2) Uji Autokorelasi, 3) Uji Multikolinieritas, dan 4). Uji
Heteroskedastisitas. Oleh karena tujuan pengujian asumsi klasik tersebut bertujuan untuk lebih
meyakinkan atas kelayakan model yang dibuat, terutama untuk tujuan memprediksi, maka
beberapa buku menyebutkan uji asumsi klasik disebut uji urutan kedua (second order test) yang
dilakukan setelah uji kelayakan model F test dan t test dilakukan. Pertimbangan lain kenapa uji
asumsi klasik dilakukan setelah uji F dan uji t urutan pertama (first order test), karena sebagian
besar dalam pengujian asumsi klasik menggunakan hasil residual dari model regresi.

B. Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah dalam residual dari model regresi yang
dibuat berdistribusi normal ataukah tidak. Model regresi yang baik adalah memiliki distribusi
residual yang normal atau mendekati normal. Jika tidak normal, maka prediksi yang dilakukan
dengan model tersebut akan tidak baik, atau dapat memberikan hasil prediksi yang menyimpang
(bias). Seperti telah diketahui, residual yang sering dinotasikan μi untuk populasi atau εi untuk
sampel merupakan selisih antara nilai variabel terikat aktual (Yi) dikurangi dengan nilai prediksi
dari variabel terikat tersebut. dikurangi dengan nilai prediksi dari variabel terikat tersebut. Dari
model regresi :
Yi = α + β1X1i + β2X2i + ……………. βk Xki + εi
Diperoleh residual:
εi = Yi – { α + β1X1i + β2X2i + ……………. βk Xki }
Dalam suatu analisis, untuk menguji apakah model sudah normal atau tidak, pertama
dapat dilakukan dengan melihat normal probability plot dari residual dengan membandingkan
distribusi komulatif dari residual yang dihasilkan dengan distribusi komulatif dari distribusi
normal. Jika titik-titik menyebar mendekati garis diagonal maka data tersebut dianggap
berdistribusi normal. Kedua, dapat dilakukan dengan Uji Komogorov-Sminarnov.

C. Uji Autokorelasi atau Serial Korelasi


Untuk melacak adanya korelasi auto atau pengaruh data dari pengamatan sebelumnya
dalam suatu model regresi dilakukan uji autokorelasi. Jika suatu model regresi mengandung
gejala autokorelasi, maka prediksi yang dilakukan dengan model tersebut akan tidak baik (bias),
atau dapat memberikan hasil prediksi yang menyimpang. Uji autokorelasi dapat dilakukan
dengan beberapa cara, namun sebagian besar program statistik menggunakan Uji Durbin-Watson
(DW-test) atau d statistik.
Bruesch dan Godfrey
mengembangkan uji autokorelasi yang lebih umum berdasarkan kelemahan-kelemahan
metode Durbin-Watson terutama dengan kesimpulan tidak memberikan keputusan (ragu-ragu).
Sebaliknya, pengujian autokorelasi Bruesch dan Godfrey dikenal dengan uji Lagrange Multiplier
(LM), yang memberikan kesimpulan ada autokorelasi vs tidak ada autokorelasi. Untuk
memahami uji LM, misalkan kita mempunyai model regresi sederhana sbb :
Yt = α + βXt + εt
Diasumsikan model residualnya mengikuti model autoregresif dengan order p atau disingkat AR
(p) sebagai berikut:
et = ρ1et-1 + ρ2 et-2 + …….. ρ et-k + vt
dimana vt adalah residual. Sebagaimana uji Durbin-Watson, maka hipotesis nul tidak adanya
autokorelasi yang dapat diformulasikan sbb:
H0: p1 = p2 = .... = pk =0

D. Uji Multikolinieritas
Uji multikolienieritas bertujuan untuk menguji apakah pada model regresi ditemukan
adanya korelasi antar variabel bebas. Model regresi yang baik seharusnya tidak terjadi korelasi
diantara variabel bebas atau bebas dari gejala multikolinier. Jika suatu model regresi yang
mengandung gejala multikolinier dipaksakan untuk digunakan, maka akan memberikan hasil
prediksi yang menyimpang. Untuk mendeteksi ada atau tidaknya korelasi antar sesama variabel
bebas dapat dilihat dari nilai tolerance dan nilai variance inflation factor (VIF). Jika nilai
tolerance lebih dari 10 persen atau VIF kurang dari 10, maka dikatakan tidak ada
multikolinieritas. Adanya gejala multikolinier sering diindikasikan oleh R2 yang sangat besar
atau uji F yang signifikant, tetapi variabel bebas sedikit atau mungkin juga tidak ada yang
signifikan.jika diuji melalui uji parsial (t).

E. Uji Heteroskedastisitas
Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi
ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Model regresi
yang baik adalah yang tidak mengandung gejala heteroskedastisitas atau mempunyai varians
yang homogen. Jika suatu model regresi yang mengandung gejala heteroskedastis akan
memberikan hasil prediksi yang menyimpang. Banyak metode untuk menditeksi adanya gejala
heteroskedastis, tetapi dalam buku ini untuk mendeteksi ada atau tidaknya heteroskedastisitas
dilakukan dengan uji Glejser dan metode Park.
 Metode Glejser Metode
ini adalah meregres variabel bebas terhadap absolut residual. Namun untuk
melakukan hal itu harus dihitung residualnya melalui regresi dengan formula:
Yi = α + β1X1 + ……….. βkXk + ei
Setelah residual diperoleh kemudian diabsolutkan dan diregresikan dengan formulasi:
| ei | = α + β1X1 + ……….. βkXk + υi
Jika variabel bebas yang dianalisis tidak mempunyai pengaruh signifikan terhadap
residual absolut | ei |, berarti model regresi yang dianalisis tidak mengandung gejala
heterosskedastis.
 Metode Park Metode
ini menganggap bahwa varians (s2 ) merupakan fungsi variabel bebas, yang dapat
dinyatakan dalam persamaan :
σ2 i = α Xi β
Persamaan ini dapat ditransformasikan dalam persamaan logaritma, sehingga menjadi :
Ln σ2 i = α + β1 Ln X1i + .... βk Ln Xki + vi
Selanjutnya σ2 i ditaksir dengan menggunakan residual µ, sehingga persamaan menjadi :
Ln µ 2 i = α + β1 Ln X1i + .... βk Ln Xki + vi

Anda mungkin juga menyukai