AUTOKORELASI
AUTOKORELASI
TUGAS
UNTUK MEMENUHI TUGAS MATA KULIAH
Ekonometrika
yang dibina oleh Bapak Hadi Sumarsono
Oleh:
Fatkhul Muin
NIM 120432426936
Herlambang Sandy P
NIM 120432426974
Nur Afiyah
NIM 120432326968
NIM 120432426866
Rahmawati Widya P.
NIM 120432426998
AUTOKORELASI
E ei , ej) = 0
ij
(8.1)
Mengapa terjadi autokorelasi? Misalkan kita menganalisis data runtut
waktu output nasional atau GDP tahunan. Jika suatu ketika gejolak ekonomi
(shock) maka gejolak ini akan berpengaruh terhadap GDP pada saat ini dan juga
pada periode-periode berikutnya. Begitu pula ketika pemerintah mengeluarkan
kebijakan fiskal maupun moneter untuk mengatasi penurunan GDP tersebut.
Setiap kebijakan ekonomi pasti akan memerlukan periode waktu untuk
mempengaruhi sistem ekonomi sehingga akhirnya mempengaruhi kenaikan GDP.
Dalam kondisi seperti ini maka jika kita menganalisis data runtut waktu diduga
seringkali mengandung unsur autokorelasi. Sedangkan data cross section diduga
jarang ditemui adanya unsur autokorelasi. Adanya korelasi antar variabel
gangguan ini dengan demikian dapat kita nyatakan sebagai berikut:
E ei , ej) 0
ij
(8.2)
Bagaimana bentuk korelasi antara variabel gangguan tersebut? Terjadinya
autokorelasi bisa positif maupun negatif. Pada gambar 8.1a menunjukkan
1
(8.3)
Asumsi berkaitan dengan variabel gangguan dalam metode OLS adalah sebagai
berikut:
E (e ) = 0
t
var(et) =
Yaitu nilai harapan dari variabel gangguan adalah nol, varian dari variabel
gangguan adalah tetap dan tidak ada korelasi antara variabel gangguan satu
periode waktu dengan variabel gangguan periode waktu lain. Namun sekarang
kita akan mencoba membahas apa yang terjadi terhadap estimator
variabel gangguan saling berhubungan.
jika
et
e t= e t 1 + v t
-1
<
<
(8.4)
gangguan
nol atau E(
et
vt
. Variabel gangguan
vt
vt
vt
v t 1
; dan
= 0. Dengan kata
pada Bab 2.
Dengan adanya autokorelasi di dalam model tersebut, maka estimator
dalam metode OLS adalah sebagai berikut:
1=
xi y1
xi2
(8.5)
Persamaan (8.5) tersebut menyatakan bahwa estimator
dan tidak bias. Sedangkan varian estimator yang tidak mengandung masalah
autokorelasi adalah sebagai berikut:
var ( 1 )=
(8.6)
x 2i
Namun, bila terdapat autokorelasi pada tingkat autoregresif pertama (AR1) maka
varian estimator
(8.7)
Pada persamaan (8.6) varian yang mengandung AR (1) besarnya sama dengan
varian yang tidak mengandung autokorelasi plus angka tertentu. Hal ini
menunjukkan bahwa varian OLS tersebut under estimate. Dengan demikian jika
ada autokorelasi dalam regresi maka estimator yang kita dapatkan akan mempuyai
karakteristik sebagai berikut:
1. Estimator metode OLS masih tidak bias (unbiased)
2. Estimator metode OLS masih linear
3. Namun estimator metode OLS tidak mempunyai varian yang minimum
lagi (no longer best).
Jadi dengan adanya autokorelasi, estimator OLS tidak menghasilkan
estimator yang BLUE hanya LUE. Apa konsekuensinya jika estimator tidak
mempunyai varian yang minimum? Konsekuensinya sebagai berikut:
1. Jika varian tidak minimum maka menyebabkan perhitungan standard
error metode OLS tidak lagi bisa dipercaya kebenarannya.
2. Selanjutnya interval estimasi maupun uji hipotesis yang didasarkan pada
distribusi t maupun F tidak lagi bisa dipercaya untuk evaluasi hasil regresi.
2. DETEKSI MASALAH AUTOKORELASI
Setelah kita membahas masalah autokorelasi dan konsekuensinya terhadap
estimator dalam OLS jika model mengandung unsur autokorelasi. Maka tibalah
saatnya kita membahas masalah metode deteksi ada tidaknya masalah autokorelasi
di dalam suatu model regresi.
2.1. Masalah Durbin-Watson (DW)
(8.3)
-1<p<1
(8.4)
t t1
tt =n
=2
d=
Dimana
(8.8)
t=n
t =n 2
+ t=2 t + t t 12 t =2 t t1
d= t =2 t
t =n 2
t =2 t
(8.9)
Karena
dan
t 1
(8.10)
t t1
2
(8.11)
Persamaan (8.11) ini merupakan koefisien autokorelasi order pertama sebagai
proksi dari . Persamaan (8.10) dapat ditulis kembali menjadi:
d 2 (1- )
(8.12)
(8.13)
Hasil
Menolak hipotesis nol; ada autokorelasi
dL< d < du
du< d < 4 - du
positif
Daerah keragu-raguan; tidak ada keputusan
Gagal menolak hipotesis nol; tidak ada
4 - du< d < 4 - dL
4 - dL< d < 4
autokorelasi positif/negatif
Daerah keragu-raguan; tidak ada keputusan
Menolak hipotesis nol; ada autokorelasi
negatif
(8.14)
(-3,9831)
R2 = 0,912921
(-3,9254)
F=104,8376
(8.15)
(8,9152)
d= 1385661
(-0,8872) (4,2973)
R2= 0,9111
(8.16)
(7,6884)
F=66,8199
d= 2,1617
(8.17)
Sebagai catatan kita bisa memasukkan lebih dari satu variabel independen, namun
untuk memudahkan kita menggunakan model regresi sederhana. Kita asumsikan
model residualnya mengikuti model autoregresif dengan order p atau disingkat
AR (p) sebagai berikut:
et = p1et-1 +p2et-2+ ... + ppet-p +vt
(8.18)
dimana vt dalam model ini mempunyai ciri sebagaimana dalam persamaan (8.3)
memenuhi asumsi OLS yakni E(vt) = 0; var(vt) = 2; dan cov (vt1vt-1)= 0.
Sebagaimana uji Durbin-Watson untuk AR(1), maka hipotesis nol tidak adanya
autokorelasi untuk model AR (p) dapat diformulasikan sebagai berikut:
H0 : p1 = p2 = ...= pp = 0
(8.19)
H0 : p1p2 ...pp 0
Jika kita gagal menolak H0 maka dikatakan tidak ada autokorelasi dalam model.
Adapun prosedur uji dari LM adalah sebagai berikut:
1. Estimasi persamaan (8.17) dengan metode OLS dan kita dapatkan residualnya
2. Melakukan regresi residual t dengan variabel independen Xt (jika ada lebih
dari satu variabel indepenmden maka kita harus masukkan semua variabel
independen) dan lag dari residual t-1, t-2 t-p Langkah kedua ini dapat di
tu;lis sebagai berikut.
t = 0 + 1Xt + 1 t-1 + 2 t-2 + + p t-p + t
(8.20)
3. Jika sampel adalah besar, maka menurut Breusch dan Godfreymaka model
dalam persamaan (8.20) akan mengikuti distribusi chi-squares dengan
sebanyak.. yaitu panjangnya kelambanan residual dalam persamaan (8.20).
2p
(8.21)
2
Jika nR2 yang merupakan chi-squares ( ) hitung lebih besar dari nilai
2
kritis chi-squares ( ) pada derajad kepercayaan tertentu (), kita
menolak hipotesis nol H0. Hal ini berarti paling tidak ada satu dalam
persamaan (8.18) secara statistic signifikan tidak sama dengan nol. Ini
menunjukkan adanya masalah autokorelasi dalam model. Senaliknya jika
nilai chi-squares hitung lebih kecil dari nilai kritisnya maka kita gagal
menolak hipotesis nol. Artinya model tidak mengandung unsur autokorelasi
karena semua nilai sama dengan nol.
Penentuan ada tidaknya masalah autokorelasi juga bisa di lihat dari nilai
probabilitas chi-square X2. Jika nilai probabilitas lebih besar dari nilai yang
di pilih maka kita gagal menolak H0 yang berarti tidak ada autokorelasi.
Sebaliknya jika nilai probabilitas lebih kecil dari nilai yang di pilih maka
kita menolak H0 yang berarti ada masalah autokorelasi.
Kelemahan deteksi dengan menggunakan model LM yang di kembangkan
oleh Breusch-Godfrey ini dalam hal menentukan panjangnya kelambanan ()
untuk variabel residula. keputusan ada tidaknya masalah autokorelasi sangat
tergantung dari kelambanan yang kita pilih. Kita akan melakukan metode cobacoba (trial and errors) hanya demi menghindari masalah autokorelasi. Untuk
memilih panjangnya lag residual yang tepat kita bisa menggunakan criteria yang
dikemukakan oleh Akaike dan Schwarz. Berdasarkan kriteria ini, panjangnya lag
yang di pilih adlah ketika nilai criteria Akaike dan Schwarz paling kecil.. Caranya
kita melakukan regresi persamaan (8.20) berkali-kali dengan lag residual 1,
kemudia dengan lag residual 2 dan seterusnya. Dari hasil regresi tiap lag ini kita
akan mendapatkan nilai Akaike dan Schwarz dan kemudian kita cari nilai absolute
yang paling kecil.
10
0.066844
Obs*R-squared
0.050504
5.971402 Probability
Std.Error
2189.540
t-Statistic
-0.019875
Prob.
0.9844
X1
-4.885325
19.95773
-0.244784
0.8094
X2
0.003315
0.017416
0.190326
0.8521
RESID(-1)
0.438817
0.215279
2.038366
0.0565
RESID(-2)
R-squared
-0.444724
0.259626
0.220910
Akaike
-2.013141
0.0593
19.00383
Durbin-
2.122393
criterion
Watson stat
info
19.25068
Schwarz
criterion
menampilkan uji LM. Nilai X2 hitung sebesar 3,6524 sedangkan X2 kritis dengan
df = 2 pada = 5% sebesar 5,99147. Uji LM ini menunjukkan tidak ada
autokorelasi pada kelambanan 2.
Tabel 8.3. Uji Autokorelasi dengan Metode LM Ekspor Pakaian Jadi ke Jepang
Breusch-Godfrey Serial Correlation LM Test:
F-statistic
1.626916 Probability
0.240456
Obs*R-squared
0.161021
3.652444 Probability
Std.Error
4486.555
t-Statistic
0.342426
Prob.
0.7385
X1
3.617009
2.666802
1.356310
0.2022
X2
-335.3532
223.7786
-1.498606
0.1621
RESID(-1)
-0.450200
0.347401
-1.295910
0.2215
RESID(-2)
-1.052855
0.228278
0.594193
Akaike
-1.771908
0.1041
21.63949
2.416622
criterion
R-squared
Durbin-
Schwarz
Watson stat
criterion
info
21.88093
3. PENYEMBUHAN AUTOKORELASI
Setelah kita ketahui konsekuaensi masalah autokorelasi dimana estimator
dari metode OLS masih linier, tidak bias tetapi tidak mempunyai varian yang
minimum, maka tibalah saatnya kita akan membahas bagaimana mengatasinya
atau mengobatinya. Penyembuhan masalah autokorelasi sangat tergantung dari
sifat hubungan antara residual. Atau dengan kata lain bagaimana bentuk struktur
autokorelasi.
Kita tulis kembali model regresi sederhana seperti dalam persamaan (8.3)
sebagai berikut:
Yt = 0+ 1Xt+et
12
-1 < < 1
Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal: (1) Jika
atau koefiseian model AR(1) diketahui; (2) jika tidak diketahui tetapi bisa
dicari melalui estimasi.
3.1 Ketika Struktur Autokorelasi Diketahui
Pada kasus ketika koefisien model AR(1) yakni struktur autokorelasi
diketahui, maka penyembuhan autokorelasi dapat dilakukan dengan transformasi
persamaan dikenal sebagai metode generalized difference equation. Pada bab 7
kita
telah
mengembangkan
metode
GLS
untuk
mengatasi
masalah
-1 < < 1
Dimana residual memenuhi asumsi residual metode OLS yakni E(vt) =0; var
(vt) =2;dan cov(vt , vt-1) = 0
Kita substitusikan persamaan (8.4) ke dalam persamaan (8.3) sehingga
menghasilkan persamaan sebagai berikut:
Yt = 0+ 1Xt+et-1+vt
(8.22)
Melakukan Lag pertama dari persamaan (8.3) untuk mendapatkan et-1 sebagai
berikut:
13
Yt-1 = 0+ 1Xt-1+et-1
et-1= Yt-1 - 0 - 1Xt-1
(8.23)
(8.24)
(8.25)
14
(8.26)
vt
v t =e 1e t1
15
Y t =t + t X t + 2 T +e t
(8.28)
Dimana T adalah tren, nilainya mulai satu pada awal periode dan terus menaik
sampai akhir periode. Variabel resdual
et
(8.29)
v t =e t et 1
Dimana
(8.30)
(8.31)
(-2,0699) (10,7337)
16
R2= 0,8458
d = 0,7543
Koefisien determinasi R2 lebih besar dari nilai statistik Durbin Watson (d)
sehingga kita bisa mengatasi masalah autokorelasi dengan metode first difference.
Hasil regresi melalui first difference untuk menghilangkan masalah autokorelasi
dapat dilihat dalam persamaan (8.32). Dalam metode first difference ini kita
memasukkan unsur tren untuk memperoleh kontansta. Hasilnya menunjukkan
bahwa dengan metode ini nilai statistik Durbin Watson (d) sebesar 2,0840
sedangkan nilai dL = 1,239 dan dU = 1,429 pada n = 22 dan k = 1dengan
(5.0803)
R2 = 0.5546
d = 2.0840
3.2.2. Estimasi
(8.32)
tinggi atau jika d rendah. Dengan kata lain metode ini hanya akan valid
jika nilai
= +1. Uji
.6 Rumus
v 2t
=
2
n
(8.33)
e 2t
1
17
et
Dimana
vt
merupakan
residual dari regresi model first difference. Dalam menguji signifikan statistik
diasumsikan model asli mempunyai konstanta. Kemudian kita menggunakan tabel
= 0. Keputusan bahwa
hitung dengan nilai kritis statistik d. Jika dibawah nilai batas minimal dL
maka tidak gagal menolak hipotesis nol sehingga kita bisa mengatakan
=1
2,47 x 108
=0,7326
3,74 x 10 8
dengan
untuk
=+1
Berenblutt-Webb ini.
8.3.2.3. estimasi
18
tinggi yakni mendekati satu. Metode ini tidak bisa digunakan ketika
d dari durbin Watson seperti di dalam persamaan (8.12). Kita bisa mengestimasi
dengan cara sebagai berikut:
d 2(1)
Atau dapat dinyatakan dalam persamaan sebagai berikut:
1
d
2
(8.35)
dari estimasi
statistik pada persamaan (8.35) di atas. Asumsi first different menyatakan bahwa
= 2 maka
Dari contoh 8.5 tentang permintaan impor kita dapatkan nilai d = 0,7543. Nilai
maka selanjutnya
19
t =3734, 769+0,1129 X t
t (-1,5323)
(5,3645)
R2= 05899
d=1,4918
= 5% dengan n = 22 k = 1
besarnya dL= 1,239 dan dU = 1,429. Kesimpulannya model tidak lagi mengandung
masalah autokorelasi.
3.2.4. Estimasi
t1
-p
+ 1
(1
Xt
X t1
)+(
et
+ 1
(1
Xt
X t1
t1
)+p
vt
(8.37)
Dimana
vt
Setelah
mendapatkan
et
e t1
persamaan
(8.37),
Durbin
menyarankan
untuk
yaitu :
t1
yaitu
20
yang konsisten.
.Walaupun ini
2. Setelah mencapai
t = t - p t1
transformasi variabel
dan
x t =
Xt
X t1
t = 0 (1 ^ ) +
2 t1 +
1 ( X t - ^ X 1 t1 ) + 2 ( X t - ^ X t 1 p
^ t1 +v t
Nilai koefisien
(8.38)
pada variabel
t1
.Hasil
=5% dengan
dL
= 1,147 dan
dy
maka dapat disimpulkan bahwa sudah tidak ada autoorelasi didalam model
tersebut
Y^ t
= - 4364,756 62,89617
x 1t
+ 0,1515
(8.39)
t= (-1,8290)
R
(-1,9304)
(5,3216)
Dimana :
21
x 2t
dy
dan 4-
X 1 t 1 ] , X 2 t
], X 1 t = (0,5357)
Y t - (0,5357 ) t1
=(
X 2 t - (0,5357) X 2 t 1
3.2.5. Estimasi
Cocharane
Orchutt
et
sebagaimana
metode
yang tidak
yang
lain
1 Xt
et
et
(8.40)
Asumsikan bahwa residual
berikut :
et
pet 1
vt
(8.41)
Dimana residual
yakni E (
Vt
vt
=0 ; var
Vt
2
=
; dan cov (
Vt
V t1
hanya
=0
22
e^t
^p
^ t1 =
^p e^
t 1
0 (1
^ ) +
1 ( X t -
^ X 1 t1 ) + e t
(8.43)
Atau dapat ditulis dalam bentuk yang lebih sederhana menjadi persamaan
y t = 0 + 1
x t + e t
Dimana : 0 = 0 1- ^p
(8.44)
4. Karena kita tidak mengetahui apakah nilai
1- ^p
dan
et sebagai berikut:
et = t
0 +
x t
(8.45)
5. Kemudian estimasi regresi sebagai berikut:
et = ^p e t + w t
(8.46)
23
^p
Karena kita tidak juga mengetahui apakah langkah kedua ini mampu
^p
mengestimasi nilai
.Menurut Cocharane-
Orchutt,estimasi nilai
uji
Durbhin-Watson
maupun
LM,regresi
permintan
impor
=5% dengan
dL
= 1,147 dan
dy
maka dapat disimpulkan bahwa sudah tidak ada autoorelasi didalam model
tersebut
Y^ t
= - 6631,974 76,1351
x 1t
+ 0,1606 x 2t
(8.47)
t
(-2,6381)
(-2,8292)
(6,8339)
24
dy
dan 4-
= (
X2t
Yt
t1
- (0,3942 )
- (0,3042)
], X 1 t =
(0,3042)
X 1 t 1
] , X2t
X 2 t 1
manipulasi
persamaan
sehingga
bias
terbebas
dari
masalah
juga
telah mencoba mengembang metode standar error yang konsisten bila terdapat
masalah heteroskedatisitas yang dikenal dengan Heteroscedasticity-Consistent
Covariance Matrix Estimator (HCCME).Namun HCCME didasarkan pada asumsi
bahwa variable gangguan
et
auotokorelasi
ini
dikenal
dengan
heteroskedasticity
and
25