Anda di halaman 1dari 15

ASUMSI KLASIK

DAN
PENYIMPANGANNYA
Asumsi-asumsi dalam model regresi dengan
metode OLS :
1.Nilai rata-rata disturbance term sama dengan
nol → E (ei /x ) = 0
2.Tidak terdapat korelasi serial (serial
correlation) di antara disturbance terms → Cov
(ei, ej) = 0 dimana i ≠ j (no autocorrelation)
3. Sifat homoskedasticity dari disturbance
terms → Var (ei) = σ²
4. Covariance antara ei dan setiap variabel
bebas (Xi) adalah nol → Cov (ei, X1) = Cov
(ei, X2) = 0
5. Tidak terdapat bias dalam spesifikasi model.
Model regresi yang diuji secara tepat telah
dispesifikasikan atau diformulasikan.
6. Tidak terdapat collinearity antar variabel-
variabel bebas.
PENYIMPANGAN ASUMSI KLASIK

1.Multikolinearitas (Multicollinearity)
2.Heteroskedastisitas (Heteroscedasticity)
3.Otokorelasi (Autocorellation)
MULTIKOLINEARITAS

Multikolinearitas adalah ada hubungan linier di


antara variabel-variabel bebas dalam model regresi.
Apabila variabel-variabel bebas berkorelasi dengan
sempurna, maka disebut “multikolinearitas sempurna”
(perfect multicollinearity). Bila variabel bebas
berkorelasi secara sempurna, maka metode OLS tidak
bisa digunakan
Contoh :
1. Hubungan linier yang sempurna
X1 : 10 15 18 24 30
X2 : 50 75 90 120 150 ------- X2 = 5 X1
X3 : 52 75 97 129 152
2. Hubungan linier yang kurang sempurna
X1 : 10 15 18 24 30
X2 : 50 30 20 96 60 ------- X1 dengan X2
X3 : 52 75 97 129 152
Penyebab :
1.Karena sifat dalam kebanyakan variabel ekonomi
berubah bersama-sama sepanjang waktu dan
besaran-besaran ekonomi dipengaruhi oleh faktor-
faktor yang sama.
2.Penggunaan nilai lag dari variabel variabel bebas
tertentu dalam model regresi.
Konsekuensi
1.Meskipun penaksir OLS masih bisa diperoleh,
tetapi standar errornya cenderung semakin tinggi.
2.Interval keyakinan semakin lebar karena terjadi
kesalahan pada standar error.
3.Berdasarkan poin 1 dan poin 2, menyebabkan
kesalahan dalam menerima atau menolak
hipotesis
4. Pada multikolinearitas yang kurang sempurna,
penaksiran koefisien regresi masih bisa, tetapi
standar errornya menjadi sangat sensitive
terhadap sedikit perubahan pada data.
(contoh : hal.21)
Mendeteksi
1.R² tinggi, tetapi tidak ada variabel bebas yang
berpengaruh terhadap variabel tidak bebas nya.
(contoh : hal. 23)
2.Koefisien korelasi parsial yang tinggi, tetapi ini
bukan syarat yang perlu (necessary) hanya syarat
yang cukup (sufficient).
Mengatasi :
1.Informasi sebelumnya
Diperoleh berdasarkan teori-teori atau penelitian
empiris lain atau data dari Lembaga terkait.
(contoh : hal.30)
2. Transfomasi Variabel
(contoh : hal. 33)
3. Menggabungkan data time series dan cross
section (pooling data)
(contoh : hal . 31)
4. Pengeluarkan variabel yang berkorelasi
(contoh : hal. 32)
5. Menambah data baru
(contoh : hal. 35)

Anda mungkin juga menyukai