Anda di halaman 1dari 38

Apa yang dipelajari ….

• Asumsi OLS
• Pelanggaran Asumsi
• Treatment terhadap Pelanggaran Asumsi
ASUMSI OLS (1/4)
1. Model regresi linear dalam parameternya.

2. Rata-rata kesalahan sama dengan nol

Secara implisit asumsi ini mengharapkan model yang terbentuk


dapat secara tepat menggambarkan rata-rata variabel terikat dalam
setiap observasi
ASUMSI OLS (2/4)
3. Homoskedastis atau varians error pada setiap observasi
sama/konstan.
Varians yang seragam akan menghasilkan nilai koefisien yang
seragam. Karenanya setiap observasi akan mempunyai reliabilitas
yang sama.
ASUMSI OLS (3/4)
4. No-otokorelasi antara error satu observasi dengan error
observasi lainnya.

5. Error terdistribusi normal.


uiN(0,2)

6. Nilai variabel bebas untuk masing-masing observasi berbeda.


Jika semua nilai X sama , maka Xi = sehingga tidak
memungkinkan mengestimasi slope persamaan regresi.
ASUMSI OLS (4/4)
7. Tidak terdapat korelasi antara error dengan variabel bebas;
atau kovarians antara error dan X sama dengan nol.
cov(ui, Xi) = 0.
Jika Xi dan ui berkorelasi, maka jika nilai Xi berubah maka nilai ui
ikut berubah. Hal ini menyebabkan kita akan sulit melihat
pengaruh masing-masing Xi atau ui terhadap Y, karena keduanya
berkorelasi.

8. Setiap variabel bebas bersifat independen/ tidak ada


hubungan linear antara satu dengan lainnya(no perfect
multicolineaarity).

9. Model terspesifikasi secara tepat (→ persamaannya tepat)

10. Jumlah observasi harus lebih besar dibanding jumlah


parameter yang akan diestimasi → masalah degree of
freedom
Uraian Asumsi OLS
• Yang di”biru”kan sebelumnya merupakan Asumsi Klasik
dari OLS
• Menurut teori Gauss Markov, Best Linier Unbiased
Estimator (BLUE) adalah dengan given, asumsi regresi
linear klasik yang telah dipenuhi, maka estimator least
square yang memiliki varians minimum dikatakan
estimator yang tidak bias
Sebuah estimator, dikategorikan BLUE, jika:

1. Berbentuk linier.
Bentuk persamaan regresi yang dibentuk adalah linier.
2. Tidak bias.
Jika rata-rata nilai ekspektasi, , sama dengan nilai sebenarnya
(aktualnya), .

Jika persamaan atas tidak dipenuhi, maka estimator dikatakan bias

3. Varians minimum.
Merupakan parameter dari sebuah persamaan regresi yang memiliki
nilai varians residual terkecil. Parameter seperti ini dikenal sebagai
parameter yang efisien.
Review: Asumsi Klasik OLS

• Nilai rata-rata error adalah 0


• Varian dari error adalah konstan/sama/tetap
• Tidak ada otokorelasi antara error
• Variabel bebas tidak berhubungan dg error
• Tidak ada hubungan antar variabel bebas
• Error mengikuti distribusi normal

Yang di”biru”kan → asumsi yang cukup serius


Nilai rata-rata error adalah 0

• Tidak begitu serius persoalaannya krn hanya akan


mempengaruhi titik potong (intercept) dari garis regresi
• Misal, persamaannya adalah Y = A + BX + e
Bila e=0, maka A dapat ditentukan
• Seandainya error tidak sama dg 0, misal sama dg k →
bila kita meregresi, kita akan kesulitan menentukan nilai
intercept sebenarnya, karena B0 = A + k
• Dalam prakteknya, nilai intercept tak begitu penting, dan
yang penting adalah nilai koefisien regeresi B, dimana
nilainya tidak terpengaruh walaupun asumsi ini tidak
terpenuhi
• Umumnya tidak perlu dilakukan pengecekkan
Variabel bebas tdk berhbngan dg error

• Syarat dari regresi, misal Y dan X, adalah bahwa nilai


variabel X diketahui (given)
• Perbedaan dlm Analogi Scientist dan Economist dalam
percobaan → dalam ekonomi, perubahan sesuatu dilihat
efeknya dengan mengasumsikan yang lain tetap (non-
stochastik atau deterministik)
• Jadi, hasil dari regresi adalah bersyarat, artinya
tergantung dari nilai X, dengan asumsi yang lain tetap
• Apabila terjadi pelanggaran, maka OLS tidak bisa
digunakan krn bias dan tidak konsisten → Persamaan
Simultan
• Sebaiknya perlu dilakukan pengecekkan → dengan
Hausman Test
Error berdistribusi normal

• Kalau hanya untuk membuat estimasi atau perkiraan,


asumsi kenormalan tidak begitu penting
• Apabila sampel besar (30 atau lebih), maka cenderung
terdistribusi normal
• Tapi, jika sampel kecil (di bawah 30), perlu asumsi
kenormalan.
• Walaupun demikian, sebaiknya perlu dilakukan
pengecekan →Normality Test → dengan Jarque-Bera
Test
PELANGGARAN ASUMSI OLS
• Jenis Pelanggaran Asumsi: Multikolineritas,
Heteroskedastisitas, Autokorelasi
• Pendeteksian Terjadinya Pelanggaran
• Penyebab Terjadinya Pelanggaran Asumsi
• Akibat Bila Terjadi Pelanggaran Asumsi
• Treatment terhadap Pelanggaran Asumsi
1. Multikolinearitas
Multikolinearitas menunjukan situasi dimana terdapat hubungan yang linear
sempurna atau hampir sempurna diantara beberapa atau semua variabel
bebas dalam model.
Multikolinearitas terjadi hanya pada hubungan linear diantara variabel X dan
tidak berlaku pada hubungan non linear .

Asumsikan terdapat k variabel independen, X1, X2, X3,…, Xk


1. Hubungan linear sempurna antara variabel independen dikatakan jika kondisi
dibawah ini terpenuhi

dimana adalah konstanta yang tidak semuanya sama dengan nol.


Persamaan tersebut dapat diubah menjadi

dimana X2 tepat secara linear berhubungan dengan variabel lain atau


koefisien korelasi antara X2 dengan variabel lain merupakan suatu satuan.
1. Multikolinearitas

2. Hubungan linear hampir/ kurang sempurna antara variabel independen jika


kondisi di bawah ini terpenuhi

dimana vi adalah stokastik error


Kemudian persamaan kedua ini. Dapat diubah ke bentuk:

dimana X2 tidak secara tepat linear berhubungan dengan variabel lain


karena juga ditentukan oleh error yang stokastik .
Mengapa multikolinearitas dianggap penting?

Misalkan kita memiliki model:

Jika X1 meningkat sebanyak 1-unit , maka akan naik sebesar


dengan X2 konstan. Tetapi jika X1 dan X2 collinear, maka hal dia
tas tidak akan terjadi. Karena segera setelah X1 berubah, maka X2
juga akan berubah. Maka selanjutnya akan sulit untuk melihat
pengaruh masing-masing X1 dan X2 terhadap Y.
Mulltikolinearitas dpt disebabkan karena:

1. Metode pengumpulan data yang dilakukan

2. Memasukan variabel yang dihitung berdasarkan


variabel lain dalam persamaan. (contoh: income
keluarga = income suami+ income istri dan dalam
regresi memasukan ke 3 jenis income tersebut).

3. Memasukan variabel yang sama atau hampir sama


dalam regresi. ( contoh ketinggian dalam satuan kaki
atau meter secara konsep adalah identik)
4. Jika jumlah variabel penjelas lebih banyak dibanding
jumlah observasi (overdetermined model).
1. Multikolinearitas
Dalam estimasi OLS yang memiliki multikolinearitas sempurna, maka
koefisien regresi akan tidak dapat ditentukan dan standar error akan tidak
terbatas.
Misal:

Misalkan X3 berkorelasi linear sempurna dengan X2 dengan hubungan


X3i=X2i dimana  adalah konstanta yang tidak nol.
1. Multikolinearitas
Cont’d…
Maka dengan proses subtitusi didapat:

jadi koefisien tidak dapat ditentukan, begitupun dengan

Jika atau , maka Se( )=. Jadi untuk estimasi


OLS yang memiliki multikolinearitas sempurna maka standar
error akan tidak terbatas.
1. Multikolinearitas
Cont’d…

Sedangkan dalam estimasi OLS yang memiliki multikolinearitas tidak


sempurna, maka koefisien regresi akan tetap dapat ditentukan, namun
standar error akan besar sehingga koefisien tidak dapat diestimasi dengan
keakuratan yang tinggi.
Jika X3 tidak berkorelasi linear sempurna dengan X2 dengan hubungan
X3i=X2i+vi
Dimana  0, vi adalah error yang stokastik dan

Maka dapat diestimasi walaupun tergantung nilai vi. Jika vi sangat kecil
atau mendekati nol, maka dikatakan X3 berkorelasi linear sempurna dengan
X2 dan tidak dapat ditentukan.
Konsekuensi Multikolinearitas
1. Meskipun BLUE, estimator OLS akan memiliki varians dan kovarians
yang tinggi, sehingga untuk melakukan estimasi secara tepat
cenderung sulit.

r23 adalah koefisien korelasi antara X2 dan X3. Jika r23 cenderung
mendekati 1, maka varian dan kovarian dari kedua estimator menjadi
meningkat dan pada nilai 1 nilai varians dan kovarian menjadi tak
terbatas, begitupun dengan kovarians
Konsekuensi Multikolinearitas
2. Standar error semakin membesar
Konsekuensi Multikolinearitas

3. Interval keyakinan akan cenderung menjadi besar dengan


meningkatnya multikolinearitas.
4. Nilai t statistik akan cenderung tidak signifikan dan
mendorong penolokan signifikansi koefisien variabel.

Jika se meningkat, maka t ratio akan kecil , sehingga akan


mendorong penolakan hipotesa Ho
5. Meskipun satu atau lebih nilai t statistik tidk signifikan, R2
dapat memiliki nilai yang tinggi.
6. Estimator OLS dan standar errornya akan menjadi sensitif
terhadap perubahan data walaupun kecil
Treatment Multikolinearitas
1. Mengeluarkan variabel yang berkorelasi.
Namun dengan mengeluarkan variabel yang berkorelasi
biasanya akan menimbulkan masalah bias dalam spesifikasi
karena spesifikasi yang tidak tepat dalam model.

2. Mentransformasikan persamaan → simultan.

3. Menambah jumlah data /observasi.


Karena multikolinearitas terjadi pada data sampel, maka
jumlah observasi sampel dapat ditambahkan, atau dengan
menambah beberapa variabel baru . Dapat juga dilakukan
kombinasi data cross-section dan time series( pooled data).

4. Melakukan teknik factor analysis dan principal components


seperti dalam statistika multivariate.
2. Heterokedastisitas
Salah satu asumsi dalam model regresi linear klasik adalah varians
gangguan (i) konstan untuk setiap observasi atau homoskedastisitas.
Secara simbol
dimana i= 1, 2,3,…,n.

Jika varian gangguan tidak konstan untuk setiap observasi


maka dikatakan heterosdastisitas.

Dalam heteroskedastisitas, varian gangguan dapat mempunyai nilai yang


berbeda untuk tiap observasi.
Penyebab Munculnya Heterokedastisitas
1. Berkurangnya gangguan dengan bertambahnya waktu.
Contoh, kesalahan seseorang dalam latihan mengetik akan semakin
berkurang dengan makin bertambahnya waktu latihan mengetik.
2. Gangguan dapat bertambah jika nilai variabel independen
meningkat.
Contoh konsumsi adalah variabel terikat dan income adalah
variable bebas. Jika suatu kelompok income rendah, maka
konsumsi akan rendah dan variasi pengeluaran diantara anggota
kelompok akan rendah pula. Sedangkan jika ditambah adanya
kelompok income tinggi, maka akan terjadi perbedaan income yang
mungkin tinggi. Rata–rata pengeluaran akan meningkat dan
variabilitas perbedaan pengeluaran antara anggota kelompok akan
meningkat pula.
3. Dengan membaiknya metode pengumpulan data, maka gangguan
dan varian gangguan akan makin kecil.
4. Munculnya outlier.
Outlier adalah suatu data yang nilainya sangat berbeda dengan
sejumlah besar data lain dalam suatu sampel.
5. Misspesifikasi model.
Contoh dalam suatu model kita menggunakan Y, padahal mungkin
yang lebih baik adalah log Y, Y2 atau lainnya.
Konsekuensi Adanya Heteroskedastisitas

1. Heteroskedastisitas menghasilkan estimasi parameter yang


tidak bias namun tidak lagi BLUE.

jika tidak heteroskedastis, maka

2. Varian estimasi ,

akan menjadi bias terhadap varian sebenarnya;


Treatment Heteroskedastisitas

1. Saat diketahui
menggunakan weighted least squares (WLS) atau
generalized least squares (GLS) untuk mengkoreksi
heteroskedastisitas → analisa pd data sangat fluktuatif

2. Saat tidak diketahui


transformasikan data dengan menggunakan informasi dari
plot grafis tentang pola heteroskedastisitas di model kita →
misal dengan menambahkan dummy, etc
3. Otokorelasi
• Didefinisikan sebagai adanya korelasi gangguan suatu
observasi dengan gangguan observasi lainnya.
• Secara simbol: E(ui,uj) dimana
• Biasanya autokorelasi muncul pada data time series, karena
pada tipe data ini data diurutkan berdasarkan waktu dan
biasanya terjadi spillover effects/inertia dari satu periode ke
periode lainnya
• Beberapa penyebab munculnya autokorelasi:
1. Inertia, yaitu variable pada periode t biasanya dipengaruhi
oleh variable pada saat t-1.
2. Bias Spesifikasi: Tidak memasukan suatu variabel yang
seharusnya muncul dalam persamaan regresi.
Cont’d..
Beberapa penyebab munculnya otokorelasi
3. Lag
Dalam model autoregressive terdapat variable bebas yang nilainya
merupakan lag dari variable terikat.

4. Manipulasi data.
Misalkan seseorang memperoleh data kuartalan dari data bulanan
dengan merata-ratakan data secara 3 bulanan. Sedang data untuk
kuartal ke dua diperoleh dengan merata-ratakan data secara 3
bulanan selanjutnya. Jika kita melakukan ini, maka kita akan
medapatkan smoothness /kehalusan dalam data yang tidak ada
sebelumnya. Selanjutnya ini akan mempengaruhi error term

5. Fenomena CobWeb
Jika pada akhir t , harga pertanian saat t lebih kecil dibanding t-1,
maka supply pertanian saat t+1 lebih kecil dibandng saat t.
Sehingga, error pada saat t (ut), tidak akan random, karena jika
petani memproduksi hasil pertanian berlebih ( overproduce ) pada
saat t, maka mereka akan mengurangi poduksi saat t+1, sehingga
membentuk pola Cobweb.
Konsekuensi Adanya Autokorelasi

1. Estimasi OLS tetap linear dan tidak bias namun tidak


lagi efisien/ BLUE( variannya tidak minimum).
2. Interval keyakinan akan semakin lebar, menyebabkan
kita menerima hipotesa H0 (koefisien tidak signifikan).
3. R2 juga akan over estimate.
4. t-stat dan F-ratio akan tidak valid; yang jika digunakan
akan menyebabkan kesimpulan yang salah.
Treatment Otokorelasi:
Kasus A: Saat Struktur Autokorelasi Diketahui.

Misalkan kita ketahui hubungan antara gangguan memiliki pola first-


order autoregressive: dan kita mengetahui nilai .

Misalkan kita memiliki model pada saat t:

dan model juga dianggap berlaku hingga periode t-1. (inertia effect)

Dengan mengalikan model dengan , maka model untuk periode t-1


adalah:

Dengan melakukan first differences:


Treatment Otokorelasi…cont’d
Persamaan diatas dapat ditulis ulang menjadi

dimana dan

Ketika kita telah mentransformasikan model seperti diatas, maka kita


dapat melakukan regresi OLS dan estimator yang kita dapatkan akan
BLUE.
Treatment Otokorelasi: Kasus B : tidak diketahui.

1. Gunakan perhitungan DW stat untuk mengestimasi


Ingat bahwa

Dengan mengubah menjadi: maka dapat diestimasi.

Sehingga model ideal dapat diubah;


• Langkah 1: Lakukan regresi OLS dan dapatkan perhitungan DW
stat.
• Langkah 2: Gunakan perhitungan DW stat untuk menghitung
• Langkah 3: Gunakan untuk mentransformasikan model ideal kita:
Treatment Otokorelasi: Kasus B : tidak diketahui.

2.Gunakan Cochrane Orcutt iterative (2 step) procedure untuk


mengestimasi

Misalkan kita memiliki model berikut beserta Struktur AR(1) :


dimana

Langkah 1: Resgresikan model dg OLS. Dapatkan nilai residual

Langkah 2: Gunakan residual yang kita peroleh untuk membuat lag


residual,

Lalu estimasikan
Treatment Otokorelasi: Kasus B : tidak diketahui.
Cont‘d...

Sekarang kita menggunakan untuk mengestimasi


model first difference sebagai berikut:

Kita harus mentransformasikan model diatas menjadi


variable baru dan lalu kita bisa regresikan dengan OLS
Aplikasi Software

Anda mungkin juga menyukai