Anda di halaman 1dari 26

Asumsi Klasik : Multikolinearitas,

Heterokedastisitas, dan Autokorelasi

Arif Rahman Hakim

https://independent.academia.edu/ArifRahmanHakim
Materi
 Multikolinearitas
Definisi
Penyebab
Dampak
Deteksi
Perbaikan
Definisi Multikolinearitas
 Adanya hubungan atau korelasi yang cukup kuat antara
sesama variabel bebas yang disertakan dalam model.
 Definisi lain adalah korelasi linear yang “perfect” atau
eksak di antara variabel penjelas yang dimasukkan ke
dalam model.
 Multikolinearitas dianggap penting karena

Jika X1 meningkat sebanyak 1-unit , maka akan naik


sebesar dengan X2 konstan.Tetapi jika X1 dan X2
collinear, maka hal dia tas tidak akan terjadi. Karena
segera setelah X1 berubah, maka X2 juga akan
berubah. Maka selanjutnya akan sulit untuk melihat
pengaruh masing-masing X1 dan X2 terhadapY.
Ilustrasi Multikolinearitas

Sumber : Gujarati, 2004


Penyebab Multikolinearitas

 cara pengambilan data,


 ukuran sampel yang dipakai terlalu kecil,
 acuan yang digunakan pada model atau
populasi yang disampel,
 spesifikasi model yang tidak tepat, dan
 ketidakseimbangan variabel dalam model
dengan jumlah sampel.
Dampak Multikolinearitas

Sumber : Gujarati, 2004


Deteksi Multikolinearitas
 Nilai koefisien determinasi ( R-squared)
yang cukup tinggi dan dengan F-test yang
signifikan, lalu dengan t-test tidak ditemukan
adanya koefisien yang signifikan.
 Koefisien korelasi antar variabel regressor
diatas 0.85.
X1 X2 X3 X4 X5 X6
X1 1.0000 0.9916 0.6206 0.4647 0.9792 0.9911
X2 0.9916 1.0000 0.6043 0.4464 0.9911 0.9953
X3 0.6206 0.6043 1.0000 -0.1774 0.6866 0.6683
X4 0.4647 0.4464 -0.1774 1.0000 0.3644 0.4172
X5 0.9792 0.9911 0.6866 0.3644 1.0000 0.9940
X6 0.9911 0.9953 0.6683 0.4172 0.9940 1.0000
Deteksi Multikolinearitas
 Variance inflation factor (VIF). Jika mempunyai
nilai VIF diatas 10 atau mempunyai nilai dibawah
1/VIF, maka terindikasi multikolinearitas.
 Auxiliary regression, prosedur yang
membandingkan R-squared model dengan setiap
nilai R-squared variabel independen terhadap
(K-1) regressor.
 Condition Index. Nilai CI berada diantara 10
hingga 30. (Nilai ini bisa didapatkan dari output
perangkat lunak SAS).
Perbaikan Multikolinearitas
 Penggunaan informasi apriori yang dapat
ditemukan dari teori, penelitian lain yang telah
dilakukan, atau judgement peneliti.
 Penggabungan data cross section dengan runtut
waktu, sering kita menyebutnya dengan data panel.
 Melakukan penggantian atau mengeluarkan variabel
yang tidak menyebabkan kesalahan spesifikasi.
 Transformasi variabel berupa penggunaan derajat
pertama, pembobotan atau penggunaan rasio, serta
bentuk logaritma.
Materi
 Heterokedastisitas
Definisi
Akibat
Deteksi
Perbaikan

https://independent.academia.edu/ArifRahmanHakim
Definisi Heterokedastisitas (1)
 Varian komponen error et bersifat tidak homogen
atau nilai absolut penyimpangan model yang
relatif tidak sama untuk setiap nilai variabel bebas
atau sepanjang periode observasi.
 Jika terdapat heterokedastisitas, maka varians
matriks dari error adalah sbb.
Definisi Heterokedastisitas (2)
 Ilustrasi heterokedastisitas vs homokedastisitas, sbb :

 Kita juga dapat melihat plot residual kondisi ada


heterokedastisitas atau tidak.

 vs
Akibat Heterokedastis (1)
 Estimator OLS tidak bias dan konsisten.

 Estimator OLS tidak effisien. Meskipun


estimator yang dihasilkan linier dan tidak
bias tapi variansnya tidak minimum.
 Karena nilai variance makin besar
menyebabkan standard error tersebut
tidak tepat sehingga pengujian nilai F dan
t menjadi tidak valid.
Akibat Heterokedastis (2)
Ilustrasi hal terebut adalah sbb.

 Keberadaan heteroscedasticity dapat


menyebabkan terjadinya kesalahan dalam
penarikan kesimpulan.
Deteksi Heterokedastis
 Deteksi heterokedastisitas dapat dilakukan
dengan mengamati residual kuadrat yang
menunjukkan suatu pola tertentu.

 Bentuk prosedur formal yang dapat digunakan


untuk mendeteksi adanya hetero berupa
 Park Test,
 GlejserTest,
 Breusch – Pagan Test atau
 White Test.
Perbaikan Heteroskedastisitas
1. Saat diketahui
menggunakan weighted least squares (WLS) atau
generalized least squares (GLS) untuk mengkoreksi
heteroskedastisitas.
2. Saat tidak diketahui
Kita bisa menggunakan estimasi dengan pendekatan
white’s heterocedasticity-consistent variances and
standard errors. Pilihan ini sudah tersedia pada
perangkat lunak Eviews.
Materi
 Autokorelasi
 Definisi
 Akibat
 Deteksi
 Perbaikan

https://independent.academia.edu/ArifRahmanHakim
Autokorelasi
 Residual regresi yang tidak bedas dari satu observasi ke
observasi lainnya.
 Autokorelasi juga didefinisikan sebagai korelasi antara
error ei dengan ej untuk i  j.
 Ilustrasi autokorelasi, sbb :
Autokorelasi (1)
 Ilustrasi nonautokorelasi, sbb :
Autokorelasi (2)
 Jika terdapat autokorelasi, maka varians
matriks dari error adalah sbb.
Autokorelasi (3)
 Struktur matriks AR(1)

sehingga var (b) menjadi


Akibat Autokorelasi
 Model regresi yang mengalami
autokorelasi tetap memiliki estimator
yang tidak bias, konsisten, dan tetap
terdistribusi normal.
 Estimator ini tidak memenuhi syarat
BLUE karena varians residual regresi
tidak minimum pada estimator kelas
linier.
Deteksi Autokorelasi
 Metode Grafik (ilustrasi autokorelasi dan non
autokorelasi).
 Bentuk prosedur Durbin Watson

 Bentuk prosedur formal yang dapat digunakan


untuk mendeteksi autokorelasi berupa
 Breusch – Godfrey LM Test.
Perbaikan Autokorelasi
1.Penambahan term lag (yt-1) sebelumnya pada
model regresi awal
2.Transformasi data membentuk varian GLS.
3.Penggunaan formulasi korelasi serial dengan
robust standard error. Prosedur ini dikenalkan oleh
Newey (1987).
Perbaikan Autokorelasi (2)
 Bentuk estimator GLS

 Karena kita mempunyai matriks P yaitu

 Data dalam bentuk transformasi untuk struktur AR(1)


dalam GLS.
Terima Kasih

https://independent.academia.edu/ArifRahmanHakim

Anda mungkin juga menyukai