Anda di halaman 1dari 26

AUTOKORELASI

TUGAS
UNTUK MEMENUHI TUGAS MATA KULIAH
Ekonometrika
yang dibina oleh Bapak Hadi Sumarsono

Oleh:
Fatkhul Muin

NIM 120432426936

Herlambang Sandy P

NIM 120432426974

Nur Afiyah

NIM 120432326968

Oky Cahyaning R.S

NIM 120432426866

Rahmawati Widya P.

NIM 120432426998

UNIVERSITAS NEGERI MALANG


FAKULTAS EKONOMI
JURUSAN EKONOMI PEMBANGUNAN
April 2015

AUTOKORELASI

1. SIFAT DAN KONSEKUENSI DARI AUTOKORELASI


Secara harfiah autokorelasi berarti adanya korelasi antara anggota
observasi satu dengan observasi lain yang berlainan waktu. Dalam kaitannya
dengan asumsi metode OLS, autokorelasi antara satu variabel gangguan dengan
variabel gangguan yang lain. Sedangkan salah satu asumsi penting metode OLS
berkaitan dengan variabel gangguan adalah tidak adanya hubungan antara variabel
gangguan satu dengan variabel gangguan yang lain. Tidak adanya serial korelasi
antara variabel gangguan ini sebelumnya dinyatakan sebagai berikut:

E ei , ej) = 0

ij

(8.1)
Mengapa terjadi autokorelasi? Misalkan kita menganalisis data runtut
waktu output nasional atau GDP tahunan. Jika suatu ketika gejolak ekonomi
(shock) maka gejolak ini akan berpengaruh terhadap GDP pada saat ini dan juga
pada periode-periode berikutnya. Begitu pula ketika pemerintah mengeluarkan
kebijakan fiskal maupun moneter untuk mengatasi penurunan GDP tersebut.
Setiap kebijakan ekonomi pasti akan memerlukan periode waktu untuk
mempengaruhi sistem ekonomi sehingga akhirnya mempengaruhi kenaikan GDP.
Dalam kondisi seperti ini maka jika kita menganalisis data runtut waktu diduga
seringkali mengandung unsur autokorelasi. Sedangkan data cross section diduga
jarang ditemui adanya unsur autokorelasi. Adanya korelasi antar variabel
gangguan ini dengan demikian dapat kita nyatakan sebagai berikut:

E ei , ej) 0

ij

(8.2)
Bagaimana bentuk korelasi antara variabel gangguan tersebut? Terjadinya
autokorelasi bisa positif maupun negatif. Pada gambar 8.1a menunjukkan
1

autokorelasi positif dan gambar 8.1b menunjukkan autokorelasi negatif. Tetapi,


sebagian besar dari data time series seringkali menunjukkan adanya tren yang
sama yaitu adanya kesamaan pergerakan naik dan turun.

Gambar 8.1 (a) Autokorelasi Positif dan (b) Autokorelasi Negatif


Pertanyaannya, apa konsekuensinya jika ada masalah autokorelasi di
dalam model regresi terhadap estimator OLS? Akankah kita masih mempunyai
estimator yang bersifat BLUE atau tidak? Untuk mengetahui hal ini makan kita
asumsikan model mengandung unsur autokorelasi tetapi masih mempertahankan
asumsi-asumsi metode OLS. Misalkan kita mempunyai model sederhana sebagai
berikut:
Y t = 0+ 1 X t +et

(8.3)

Asumsi berkaitan dengan variabel gangguan dalam metode OLS adalah sebagai
berikut:
E (e ) = 0
t

var(et) =

cov(et, es) = 0 dimana t s

Yaitu nilai harapan dari variabel gangguan adalah nol, varian dari variabel
gangguan adalah tetap dan tidak ada korelasi antara variabel gangguan satu
periode waktu dengan variabel gangguan periode waktu lain. Namun sekarang
kita akan mencoba membahas apa yang terjadi terhadap estimator
variabel gangguan saling berhubungan.

jika

Ada beberapa model yang dapat digunakan untuk menjelaskan masalah


hubungan antara variabel gangguan yang satu dengan variabel gangguan yang lain
dalam persamaan (8.3) tersebut. Yang paling umum digunakan adalah model
autoregresif tingkat pertama (autoregressive) disingkat AR (1)1. Di dalam model
ini variabel gangguan
e t1

et

hanya tergantung dari variabel gangguan sebelumnya

. Model AR (1) tersebut dapat ditulis sebagai berikut:

e t= e t 1 + v t

-1

<

<

(8.4)

(rho) adalah parameter yang menjelaskan hubungan antara variabel

gangguan
nol atau E(

et
vt

. Variabel gangguan

vt

ini kita asumsikan mempunyai rata-rata

) = 0; mempunyai varian yang konstan atau var(vt) =

tidak mengandung unsur autokorelasi atau cov(


lain variabel gangguan

vt

vt

v t 1

; dan

= 0. Dengan kata

mengikuti asumsi model OLS yang kita kembangkan

pada Bab 2.
Dengan adanya autokorelasi di dalam model tersebut, maka estimator
dalam metode OLS adalah sebagai berikut:
1=

xi y1
xi2

(8.5)
Persamaan (8.5) tersebut menyatakan bahwa estimator

masih bersifat linear

dan tidak bias. Sedangkan varian estimator yang tidak mengandung masalah
autokorelasi adalah sebagai berikut:

var ( 1 )=

(8.6)

x 2i

Namun, bila terdapat autokorelasi pada tingkat autoregresif pertama (AR1) maka
varian estimator

adalah sebagai berikut:

(8.7)
Pada persamaan (8.6) varian yang mengandung AR (1) besarnya sama dengan
varian yang tidak mengandung autokorelasi plus angka tertentu. Hal ini
menunjukkan bahwa varian OLS tersebut under estimate. Dengan demikian jika
ada autokorelasi dalam regresi maka estimator yang kita dapatkan akan mempuyai
karakteristik sebagai berikut:
1. Estimator metode OLS masih tidak bias (unbiased)
2. Estimator metode OLS masih linear
3. Namun estimator metode OLS tidak mempunyai varian yang minimum
lagi (no longer best).
Jadi dengan adanya autokorelasi, estimator OLS tidak menghasilkan
estimator yang BLUE hanya LUE. Apa konsekuensinya jika estimator tidak
mempunyai varian yang minimum? Konsekuensinya sebagai berikut:
1. Jika varian tidak minimum maka menyebabkan perhitungan standard
error metode OLS tidak lagi bisa dipercaya kebenarannya.
2. Selanjutnya interval estimasi maupun uji hipotesis yang didasarkan pada
distribusi t maupun F tidak lagi bisa dipercaya untuk evaluasi hasil regresi.
2. DETEKSI MASALAH AUTOKORELASI
Setelah kita membahas masalah autokorelasi dan konsekuensinya terhadap
estimator dalam OLS jika model mengandung unsur autokorelasi. Maka tibalah
saatnya kita membahas masalah metode deteksi ada tidaknya masalah autokorelasi
di dalam suatu model regresi.
2.1. Masalah Durbin-Watson (DW)

Banyak metode yang bisa digunakan untuk mendeteksi masalah


autokorelasi. Salah satu uji poluler digunakan di dalam ekonometrika adalah
metode yang dikemukakan oleh Durbin-Watson (d)2. Prosedur ini yang
dikembangkan oleh Durbin-Watson dapat kita jelaskan dengan model sederhana
seperti persamaan (8.3) sebagai berikut:
Yt=0+ 1X1+et

(8.3)

Hubungan antara| variabel gangguan et hanya tergantung dari variabel gangguan


sebelumnya et-1 disebut Model AR (1) seperti persamaan (8.4) sebelumnya:
Et=et-1+t

-1<p<1

(8.4)

Jika =0 maka et = vt, sehingga variabel gangguan di dalam persamaan tersebut


tidak saling berhubungan atau tidak ada autokorelasi. Oleh karena itu hipotesis nol
tidak adanya autokorelasi dapat ditulis H0: = 0 sedangkan hipotesis alternatifnya
Ha: > 0 atau Ha:< 0 atau Ha: 0. Karena sebagian besar dari data time series
menunjukkan adanya autokorelasi positif maka Ha: > 0.
Untuk menguji hipotesis nol kita harus menghitung dan kemudian
menguji secara statistika apakah signifikan atau tidak. Akan tetapi penurunan
distribusi probabalitas dari sangat sulit dilakukan. Sebagai altematif, Durbin dan
Watson mengembangkan distibusi probabilitas yang berbeda. Uji statistik DurbinWatson tersebut didasarkan dari residual metode OLS. Adapun formula uji
statistik Durbin-Watson adalah sebagai berikut:
2

t t1

tt =n
=2
d=
Dimana

(8.8)

adalah residual metode kuadrat terkecil. Bagaimana d berhubungan

erat dengan dan bagaimana mendapatkan uji statistik untuk masalah


autokorelasi, kita manipulasi persamaan (8.8) diatas menjadi:
t =n

t=n

t =n 2

+ t=2 t + t t 12 t =2 t t1
d= t =2 t
t =n 2
t =2 t
(8.9)

Karena

dan

t 1

berbeda hanya satu observasi, maka nilainya

hampir sama. Persamaan (8.9) tersebut dapat ditulis sebagai berikut:


d1+1-2p=2-2p
Dimana

(8.10)

t t1
2

(8.11)
Persamaan (8.11) ini merupakan koefisien autokorelasi order pertama sebagai
proksi dari . Persamaan (8.10) dapat ditulis kembali menjadi:
d 2 (1- )

(8.12)

Karena -1 1 maka berimplikasi bahwa:


0d4

(8.13)

Dari persamaan (8.12) tersebut jika = 0 makanilai d = 2 yang berarti tidak


adanya masalah autokorelasi (pada order pertama). Oleh karena itu sebagai aturan
kasar (rule of thumb) jika nilai d 2, maka kita bisa mengatakan bahwa tidak ada
autokorelasi baik positif maupun negatif. Jika = +1, nilai d 0, mengindikasikan
adanya autokorelasi positif. Oleh karena itu nilai d yang semakin mendekati nol
menunjukkan semakin besar terjadinya autokorelasi positif. Jika = -1, nilai d =
4, yang berarti ada autokorelasi negatif. Dengan demikian nilai d yang semakin
besar mendekati 4 maka semakin besar terjadinya masalah autokorelasi negatif.
Tabel 8.1. Uji Statistik Durbin-Watson d
Nilai Statistik d
0 < d <dL

Hasil
Menolak hipotesis nol; ada autokorelasi

dL< d < du
du< d < 4 - du

positif
Daerah keragu-raguan; tidak ada keputusan
Gagal menolak hipotesis nol; tidak ada

4 - du< d < 4 - dL
4 - dL< d < 4

autokorelasi positif/negatif
Daerah keragu-raguan; tidak ada keputusan
Menolak hipotesis nol; ada autokorelasi
negatif

Gambar 8.2. Statistik Durbin-Watson d


Durbin-Watson telah berhasil mengembangkan uji statistik berdasarkan
persamaan (8.9) yang disebut uji statistik d. Durbin-Watson berhasil menurunkan
nilai kritis batas bawah (du) sehingga jika nilai d hitung dari persamaan (8.9)
terletak di luar nilai kritis ini maka ada tidaknya autokorelasi baik positif atau
negatif dapat diketahui. Penentuan ada tidaknya dapat dilihat dengan jelas
dalamTabel 8.1. atau dengan menggunakan gambar 8.2.
Salah satu keuntungan dari uji DW yang didasarkan pada residual adalah
bahwa setiap program komputer untuk regresi selalu memberi informasi statistik
d. Adapun prosedur dari uji DW sebagai berikut:
1. Melakukan regresi metode OLS dan kemudian mendapatkan nilai
residualnya.
2. Menghitung nilai d dari persamaan (8.9) (Kebanyakan program
komputer secara otomatis menghitung nilai d).
3. Dengan jumlah observasi (n) dan jumlah variabel independen tertentu
tidak termasuk konstanta (k), kita cari nilai kritis dL dan du di statistik
Durbin Watson.
4. Keputusan ada tidaknya autokorelasi didasarkan Tabel 8.1 atau
Gambar 8.2.
Contoh 8.1 Uji Autokorelasi Metode DW PermintaanImpor Indonesia.
Sebagai contoh untuk mendeteksi masalah autokorelasi, kita analisis kasus
Permintaan Impor di Indonesia periode 1980-2002. Model regresi permintaan
sebagai berikut:
Yt=0+1X1t+0+2X2t+et

(8.14)

Dimana Yt = permintaan impor; X1 = harga impor yakni indeks harga impor; X2 =


GDP riil tahun dasar 1993 dan beberapa informasi stalistik yang penting sebagai
berikut:

t=-9588,023 - 83,9487X1t + 0,1673X2t


t

(-3,9831)

R2 = 0,912921

(-3,9254)
F=104,8376

(8.15)

(8,9152)
d= 1385661

Nilai statistik hitung 1,3857 sedangkan nilai kritis d pada a = 5% dengan n = 23


dan k = 2 dL=1,168 dan nilai du = 1,543. Karena nilai d hitung terlelak antara
dLdan du maka dapat disimpulkan terletak di daerah keragu-raguan
Contoh 8.2 Uji Autokorelasi DW Ekspor Pakaian Jadi ke Jepang
Kembali ke contoh 4.1. pada Bab 4 tentang regresi ekspor pakaian jadi ke Jepang,
Hasil regresi dan beberapa informasi statistik kita tampilkan kembali sebagai
berikut:
t= -4067,496+7,8150X1t+1001,855X2t
t

(-0,8872) (4,2973)

R2= 0,9111

(8.16)

(7,6884)

F=66,8199

d= 2,1617

Nilai statistik hitung d= 2,1617 sedangkan nilai kritis d pada a = 5% dengan n =


13 dan k=2 untuk dL = 0,861 dan nilai du = 1,562. Sedangkan nilai 4 - du = 2,438
dan dL 4 = 3,139.
Karena nilai stalistik hitung d terletak antara du dan 4-du maka dapat disimpulkan
tidak ada masalah autokorelasi.
2.2. Metode Breusch-Godfrey
Walaupun ujia utokorelasi dari Durbin-Watson mudah dilakukan karena
informasi nilai statistik hitung d selalu diinformasikan etiap program komputer,
namun uji ini mengandung beberapa kelemahan. Pertama, uji ini hanya berlaku
jika variabel independen bersifat random atau stokastik. Jika uji ini memasukkan
variabel independen yang bersifat nonstokaslik seperti memasukkan variabel
kelambanan (lag) dari variabel dependen sebagai variabelin dependen yang
disebut dengan model autoregresif maka uji Durbin Watson tidak bisa digunakan.
Kedua, uji Durbin-Watson hanya berlaku jika hubungan autokorelasi antar
residual dalam order pertama atau autoregresif order pertama disingkat AR (1).
Uji ini tidak bisadilakukan untuk model autoregresif yang lebih tinggi seperti AR
(2), AR(3) dan seterusnya. Ketiga, model ini juga tidak bisa digunakan dalam
kasus rata-rata bergerak (moving average) dari residual yang lebih tinggi. Contoh

dalam model regresi Yt=0+1Xt+e, maka uji autokorelasi denganAR(1)


sebagaimana dalam persamaan (8.3) yakni et = pet-1 +vt. Sedangkan uji
autokorelasi dengan metode moving average, misalnya moving average tiga
periode dapat ditulis sebagai berikut et = vt + 1vt-1+ 2vt-2
Berdasarkan kelemahan-kelemahan di atas maka Breusch dan Godfrey
mengembangkan uji autokorelasi yang lebih umum dan dikenal dengan uji
Lagrange Multiplier (LM)4. Untuk memahami uji LM, misalkan kita mempunyai
model regresi sederhana sebagai berikut:
Yt =0 + 1Xt+et

(8.17)

Sebagai catatan kita bisa memasukkan lebih dari satu variabel independen, namun
untuk memudahkan kita menggunakan model regresi sederhana. Kita asumsikan
model residualnya mengikuti model autoregresif dengan order p atau disingkat
AR (p) sebagai berikut:
et = p1et-1 +p2et-2+ ... + ppet-p +vt

(8.18)

dimana vt dalam model ini mempunyai ciri sebagaimana dalam persamaan (8.3)
memenuhi asumsi OLS yakni E(vt) = 0; var(vt) = 2; dan cov (vt1vt-1)= 0.
Sebagaimana uji Durbin-Watson untuk AR(1), maka hipotesis nol tidak adanya
autokorelasi untuk model AR (p) dapat diformulasikan sebagai berikut:
H0 : p1 = p2 = ...= pp = 0

(8.19)

H0 : p1p2 ...pp 0
Jika kita gagal menolak H0 maka dikatakan tidak ada autokorelasi dalam model.
Adapun prosedur uji dari LM adalah sebagai berikut:
1. Estimasi persamaan (8.17) dengan metode OLS dan kita dapatkan residualnya
2. Melakukan regresi residual t dengan variabel independen Xt (jika ada lebih
dari satu variabel indepenmden maka kita harus masukkan semua variabel
independen) dan lag dari residual t-1, t-2 t-p Langkah kedua ini dapat di
tu;lis sebagai berikut.
t = 0 + 1Xt + 1 t-1 + 2 t-2 + + p t-p + t

(8.20)

3. Jika sampel adalah besar, maka menurut Breusch dan Godfreymaka model
dalam persamaan (8.20) akan mengikuti distribusi chi-squares dengan
sebanyak.. yaitu panjangnya kelambanan residual dalam persamaan (8.20).

Nilai hitung statistic chi-squares dapat di hitung dengan menggunakan


formula sebagai berikut :
nR2

2p

(8.21)

2
Jika nR2 yang merupakan chi-squares ( ) hitung lebih besar dari nilai

2
kritis chi-squares ( ) pada derajad kepercayaan tertentu (), kita

menolak hipotesis nol H0. Hal ini berarti paling tidak ada satu dalam
persamaan (8.18) secara statistic signifikan tidak sama dengan nol. Ini
menunjukkan adanya masalah autokorelasi dalam model. Senaliknya jika
nilai chi-squares hitung lebih kecil dari nilai kritisnya maka kita gagal
menolak hipotesis nol. Artinya model tidak mengandung unsur autokorelasi
karena semua nilai sama dengan nol.
Penentuan ada tidaknya masalah autokorelasi juga bisa di lihat dari nilai
probabilitas chi-square X2. Jika nilai probabilitas lebih besar dari nilai yang
di pilih maka kita gagal menolak H0 yang berarti tidak ada autokorelasi.
Sebaliknya jika nilai probabilitas lebih kecil dari nilai yang di pilih maka
kita menolak H0 yang berarti ada masalah autokorelasi.
Kelemahan deteksi dengan menggunakan model LM yang di kembangkan
oleh Breusch-Godfrey ini dalam hal menentukan panjangnya kelambanan ()
untuk variabel residula. keputusan ada tidaknya masalah autokorelasi sangat
tergantung dari kelambanan yang kita pilih. Kita akan melakukan metode cobacoba (trial and errors) hanya demi menghindari masalah autokorelasi. Untuk
memilih panjangnya lag residual yang tepat kita bisa menggunakan criteria yang
dikemukakan oleh Akaike dan Schwarz. Berdasarkan kriteria ini, panjangnya lag
yang di pilih adlah ketika nilai criteria Akaike dan Schwarz paling kecil.. Caranya
kita melakukan regresi persamaan (8.20) berkali-kali dengan lag residual 1,
kemudia dengan lag residual 2 dan seterusnya. Dari hasil regresi tiap lag ini kita
akan mendapatkan nilai Akaike dan Schwarz dan kemudian kita cari nilai absolute
yang paling kecil.

10

Contoh 8.3. Uji Autokorelasi metode LM Permintaan Impor 1980-2002


Sebagai contoh uji LM kita kembali pada kasus permintaa impor di Indonesia
1980-2002. Hasil uji LM dapat di lihat pada tanel 8.2. Ada beberapa informasi
penting berkaitan dengan uji LM. Pertama, bagian bawah table tersebut memebri
informasi persamaan uji LMdengan panjangnya kelambanan residual 2 didasarkan
criteria Akaike dan Schwarz. Nilai koefisisen determinasinya (R2) sebesar 0,2596.
Kedua, nilai X2 hitung sebesar 5,9714 di peroleh dari informasi Obs*R-squared
yaitu jumlah observasi dikalikan dengan koefisien determinasi. Sedangkan nilai
X2 kritis dengan df = 2 pada = 5% sebesar 5,99147. Berdasarkan uji LM ini
berarti model tidak mengandung masalah autokorelasi. Tidak adanya masalah
autokorelasi bisa juga dilihat nilai probabilitas chi-squares sebesar 0,0505 ( =
5,05%).
Tabel 8.2 Uji Autokorelasi dengan Metode LM Permintaan Impor
Breusch-Godfrey Serial Correlation LM Test:
F-statistic
3.156022 Probability

0.066844

Obs*R-squared

0.050504

5.971402 Probability

Dependent Variable : RESID


Variabel
Coeficients
C
-43.51782

Std.Error
2189.540

t-Statistic
-0.019875

Prob.
0.9844

X1

-4.885325

19.95773

-0.244784

0.8094

X2

0.003315

0.017416

0.190326

0.8521

RESID(-1)

0.438817

0.215279

2.038366

0.0565

RESID(-2)
R-squared

-0.444724
0.259626

0.220910
Akaike

-2.013141

0.0593
19.00383

Durbin-

2.122393

criterion

Watson stat

info

19.25068

Schwarz
criterion

Contoh 8.4. Uji Autokorelasi Metode LM ekspor Pakaian Jadi ke Jepang


Kembali ke kasus ekspor pakaian jadi ke Jepang. Uji Durbin-watson
menunjukkan tidak ada autokorelasi. Bagaimana dengann uji LM? Tabel 8.3
11

menampilkan uji LM. Nilai X2 hitung sebesar 3,6524 sedangkan X2 kritis dengan
df = 2 pada = 5% sebesar 5,99147. Uji LM ini menunjukkan tidak ada
autokorelasi pada kelambanan 2.
Tabel 8.3. Uji Autokorelasi dengan Metode LM Ekspor Pakaian Jadi ke Jepang
Breusch-Godfrey Serial Correlation LM Test:
F-statistic
1.626916 Probability

0.240456

Obs*R-squared

0.161021

3.652444 Probability

Dependent Variable : RESID


Variabel
Coeficients
C
1536.315

Std.Error
4486.555

t-Statistic
0.342426

Prob.
0.7385

X1

3.617009

2.666802

1.356310

0.2022

X2

-335.3532

223.7786

-1.498606

0.1621

RESID(-1)

-0.450200

0.347401

-1.295910

0.2215

RESID(-2)

-1.052855
0.228278

0.594193
Akaike

-1.771908

0.1041
21.63949

2.416622

criterion

R-squared
Durbin-

Schwarz

Watson stat

criterion

info

21.88093

3. PENYEMBUHAN AUTOKORELASI
Setelah kita ketahui konsekuaensi masalah autokorelasi dimana estimator
dari metode OLS masih linier, tidak bias tetapi tidak mempunyai varian yang
minimum, maka tibalah saatnya kita akan membahas bagaimana mengatasinya
atau mengobatinya. Penyembuhan masalah autokorelasi sangat tergantung dari
sifat hubungan antara residual. Atau dengan kata lain bagaimana bentuk struktur
autokorelasi.
Kita tulis kembali model regresi sederhana seperti dalam persamaan (8.3)
sebagai berikut:
Yt = 0+ 1Xt+et
12

Sebagaimana sebelumnya, diasumsikan bahwa residual mengikuti model AR(1)


sebagai berikut:
et = et-1 + vt

-1 < < 1

Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal: (1) Jika
atau koefiseian model AR(1) diketahui; (2) jika tidak diketahui tetapi bisa
dicari melalui estimasi.
3.1 Ketika Struktur Autokorelasi Diketahui
Pada kasus ketika koefisien model AR(1) yakni struktur autokorelasi
diketahui, maka penyembuhan autokorelasi dapat dilakukan dengan transformasi
persamaan dikenal sebagai metode generalized difference equation. Pada bab 7
kita

telah

mengembangkan

metode

GLS

untuk

mengatasi

masalah

heteroskedastisitas yakni ketika varian residual tidak konstan. Dengan melakukan


transformasi model kita dapat menghilangkan masalah heteroskedastisitas
sehingga kita kemudian dapat mengestimasi model dengan menggunakan metode
OLS.
Untuk menjelaskan metode generalized difference equation dalam kasus
adanya autokorelasi, misalkan kita mempunyai model regresi sederhana dan
residualnya et mengikuti pola autoregresif tingkat pertama AR(1) sebagai berikut:
Yt = 0+ 1X1+et
et = et-1 + vt

-1 < < 1

Dimana residual memenuhi asumsi residual metode OLS yakni E(vt) =0; var
(vt) =2;dan cov(vt , vt-1) = 0
Kita substitusikan persamaan (8.4) ke dalam persamaan (8.3) sehingga
menghasilkan persamaan sebagai berikut:
Yt = 0+ 1Xt+et-1+vt

(8.22)

Melakukan Lag pertama dari persamaan (8.3) untuk mendapatkan et-1 sebagai
berikut:
13

Yt-1 = 0+ 1Xt-1+et-1
et-1= Yt-1 - 0 - 1Xt-1

(8.23)

Kemudian kita substitusikan persamaan (8.23) ke dalam persamaan (8.22)


sehingga menghasilkan persamaan sebagai berikut:
Yt=0+1Xt+(Yt-1 - 0 - 1Xt-1)+vt
Yt - Yt-1= 0 (1-) + 1(Xt -Xt-1)+vt

(8.24)

Persamaan (8.24) tersebut dapat kita tulis menjadi:


Y*t = *0+ *1X*1+vt

(8.25)

Dimana Y*t = Yt -Yt-1; *0 = 0 (1-); *1= 1;X*1=(Xt -Xt-1)


Residual vt dalam persamaan (8.25) sudah terbebas dari masalah autokorelasi
sehingga memenuhi asumsi OLS. Sekarang kita bisa mengaplikasikan metode
OLS terhadap trnasformasi variabel Y* dan X* dan mendapatkan estimator yang
menghasilkan karakteristik estimator yang BLUE. Metode ini disebut dengan
generalized difference equation (GLS).

3.2 Ketika Struktur Autokorelasi Tidak Diketahui


Walaupun metode penyembuhan masalah autokorelasi sangat mudah
dilakukan dengan metode generalized difference equation (GLS) jika strukturnya
diketahui. Namun metode ini dalam prakteknya sangat sulit dilakukan. Kesulitan
ini muncul karena sulitnya kita untuk mengetahui nilai . Oleh karena itu kita
hartus menemukan cara yang paling tepat untuk mengestimas . Ada beberapa
metode yang telah dikembangkan oleh para ahli ekonometrika untuk
mengestimasi nilai .
3.2.1 Metode Diferensi Tingkat Pertama

14

Nilai terletak antara -1 1 Jika niali =0 berarti tidak ada korelasi


residual tingkat pertama (AR=1). Namun jika nilai = 1 maka model
mengandung autokorelasi baik positif maupun negative. Ketika nilai dari = 1,
masalah autokorelasi dapat disembuhkan dengan diferensi tingkat pertama metode
generalized difference equation. Misalkan kita mempunyai model sederhana
seperti persamaan (8.3) sebelumnya, metode diferensi tingkat pertama (first
difference) dapat di jelaskan sebagai berikut:
Yt = 0+ 1X1+et
Diferensi tingkat pertama persamaan (8.3) tersebut sebagaimana dalam persamaan
(8.24) sebelumnya sebagai berikut:
Yt - Yt-1= 0 (1-) + 1(Xt -Xt-1) + (et -et-1)
jika = +1 maka persamaan tersebut dapat di tulis kembali menjadi:
Yt - Yt-1= 1 (Xt -Xt-1) + (et -et-1)

(8.26)

Atau dapat di tulis menjadi persamaan berikut:


Y t = 1 X 1+ v t
(8.27)
Dimana
Residual

vt

adalah diferensi dari

v t =e 1e t1

dari persamaan (8.27) tersebut sekarang terbebas dari masalah

autokorelasi. Metode first difference ini bisa diaplikasikan jika koefisien


autokorelasi cukup tinggi atau jika nilai statistik Durbin-Watson (d) sangat rendah.
Sebagai rule of thumb jika R2 > d, maka kita bisa menggunakan metode first
difference. Dari transformasi first difference ini sekarang kita tidak lagi
mempunyai intersep atau konsta dalam model. Konstanta dalam model dapat
dicari dengan memasukkan variabel tren (T) dalam model aslinya. Misalkan
model awalnya dengan tren sebagai berikut:

15

Y t =t + t X t + 2 T +e t

(8.28)

Dimana T adalah tren, nilainya mulai satu pada awal periode dan terus menaik
sampai akhir periode. Variabel resdual

et

dalam persamaan (8.28) tersebut

mengikuti autogresif tingkat pertama. Transformasi persamaan (8.28) dengan


metode first difference akan mengahasilkan persamaan sebagai berikut :
Y t = 1 X t + 2 +v t

(8.29)

v t =e t et 1

Dimana

Pada proses diferensi tingkat pertama persamaan (8.28) menghasil persamaan


(8.29) yang mempunyai konstanta sedangkan diferensi pertama pada persamaan
(8.3) tanpa menghasilkan konstanta.
Contoh 8.5 Uji First Difference Permintaan Impor
Kita kembali ke contoh permintan impor periode 1980-2002. Tetapi sekarang,
variabel PDB (X) hanya merupakan satu-satunya variabel independen dalam
permintaan impor (Y). Model permintaan impor terssebut dapat ditulis sebagai
berikut :
Y t = 0+ 1 X 1 +e t

(8.30)

Dimana Y = permintaan impor; X = GDP riil tahun dasar 1993


Hasil regresi permintaa impor bisa diliat dalam persamaan (8.31). Nilai d =
0,7543 sedangkan nilai dL= 1,257 dan dU = 1,437 pada n = 23 dan k = 1 dengan

= 5%. Berdasarkan nilai d hitung tersebut menunjukan bahwa model

mengandung masalah autokorelasi.


t =5979,537+ 0,0991 X 1
T

(8.31)

(-2,0699) (10,7337)
16

R2= 0,8458

d = 0,7543

Koefisien determinasi R2 lebih besar dari nilai statistik Durbin Watson (d)
sehingga kita bisa mengatasi masalah autokorelasi dengan metode first difference.
Hasil regresi melalui first difference untuk menghilangkan masalah autokorelasi
dapat dilihat dalam persamaan (8.32). Dalam metode first difference ini kita
memasukkan unsur tren untuk memperoleh kontansta. Hasilnya menunjukkan
bahwa dengan metode ini nilai statistik Durbin Watson (d) sebesar 2,0840
sedangkan nilai dL = 1,239 dan dU = 1,429 pada n = 22 dan k = 1dengan

5%, mengidentifikasikan tidak adanya masalah autokorelasi lagi.


t =91,0623+0,1832 X 1
T (-1.5956)

(5.0803)

R2 = 0.5546

d = 2.0840

3.2.2. Estimasi

(8.32)

Didasarkan Pada Berenblutt- Web

Metode transformasi dengan first difference bisa digunakan hanya jika


nilai

tinggi atau jika d rendah. Dengan kata lain metode ini hanya akan valid

jika nilai

= +1 yaitu jika terjadi autokorelasi positif yang sempurna.

Pertanyaannya bagaimana kita bisa mengetahui asumsi bahwa


statistik dari Bernblutt-Webb ini dikenal dengan uji statistik

= +1. Uji
.6 Rumus

statistiknya dapat ditulis sebagai berikut :


n

v 2t
=

2
n

(8.33)

e 2t
1

17

et

Dimana

adalah residual dari regresi model asli dan

vt

merupakan

residual dari regresi model first difference. Dalam menguji signifikan statistik
diasumsikan model asli mempunyai konstanta. Kemudian kita menggunakan tabel

Durbin-watson dengan hipotesis nol

= 0. Keputusan bahwa

= 1, tidak lagi dengan hipotesis nol

= 1 ditentukan dengan membandingkan nilai

hitung dengan nilai kritis statistik d. Jika dibawah nilai batas minimal dL
maka tidak gagal menolak hipotesis nol sehingga kita bisa mengatakan

=1

atau ada korelasi positif antara residual.


Contoh 8.6. Uji Berenblutt-Webb
Kita kembali ke model sedrhana permintaan impor pada contoh 8.5. Dari Regresi
persamaan kita mendapatkan SSR 3,74 x 10 8 sedangkan hasil regresi diferensi
tigkat pertama tanpa konstanta meghasilkan SSR sebesar 2,47 x 10 8. Dengan
demikian nilai statistik g dapat dihitung sebagai berikut:

2,47 x 108
=0,7326
3,74 x 10 8

Nilai kritis statistik durbin-Watson dengan jumlah observasi n = 22 dan k= 1

dengan
untuk

= 1%, masing-masing adalah dL= 0,997 dan dU= 1,174, sedangkan


= 5%, sebesar dL = 1,239 dan dU = 1,429. Nilai statistik lebih kecil

dari nilai kritis dL = pada

= 5% sehingga kita gagal menolak hipotesis nol.

Kesimpulannya penyembuh masalah autokorelasi dengan metode first different


adalah tepat karena nilai

=+1

berdasarkan uji yang dikembangkan oleh

Berenblutt-Webb ini.
8.3.2.3. estimasi

Didasarkan Pada Statistik d Durbin Watson

18

Kita hanya bisa mengaplikasikan metode transformasi first different jika


nilai

tinggi yakni mendekati satu. Metode ini tidak bisa digunakan ketika

rendah. Untuk kasus nilai

rendah maka kita bisa menggunakan statistik

d dari durbin Watson seperti di dalam persamaan (8.12). Kita bisa mengestimasi
dengan cara sebagai berikut:

d 2(1)
Atau dapat dinyatakan dalam persamaan sebagai berikut:
1

d
2

(8.35)

Sebagaimana pembahasan sebelumnya, kita bisa mencari nilai

dari estimasi

statistik pada persamaan (8.35) di atas. Asumsi first different menyatakan bahwa

= 1 hanya terjadi jika d = 0 di dalam persamaan (8.35). Begitu pula jika d

= 2 maka

= 0 dan bila d = 4 maka statistik d untuk mendapatkan nilai

Di dalam sampel besar kita dapat mengestimasi


menggunakan

dari persamaan (8.35) dan

yang kita dapatkan untuk model generalized difference

equation dalam persamaan (8.36) sebelumnya.


Contoh 8.7. Estimasi

dari statistik d Durbin Watson

Dari contoh 8.5 tentang permintaan impor kita dapatkan nilai d = 0,7543. Nilai

= (1-0,7543/2) = 0.6628. Setelah kita dapatkan nilai

maka selanjutnya

kita bisa mengestimasi generalized different equation pada persamaan (8.24)


dengan metode OLS. Hasil estimasinya dapat dilihat dalam persamaan (8.36)
berikut ini:

19

t =3734, 769+0,1129 X t
t (-1,5323)

(5,3645)

R2= 05899

d=1,4918

Hasil estimasi generalized different equation sekarang menghasilkan d = 1,4918,


sedangkan nilai tabel statistik Durbin Watson pada

= 5% dengan n = 22 k = 1

besarnya dL= 1,239 dan dU = 1,429. Kesimpulannya model tidak lagi mengandung
masalah autokorelasi.
3.2.4. Estimasi

Dengan Metode Dua Langkah Durbin

Untuk menjelaskan metode ini maka kita kembali ke model generalized


difference equation untuk persamaan (8.24).Kita tulis persamaan tersebut sebagai
berikut :
t
et 1

t1

-p

+ 1

(1

Xt

X t1

)+(

et

Atau dapat kita tulis kembali menjadi :


t

+ 1

(1

Xt

X t1

t1

)+p

vt

(8.37)
Dimana

vt

Setelah

mendapatkan

et

e t1
persamaan

(8.37),

Durbin

menggunakan prosedur dua langkah untuk mengestimasi

menyarankan

untuk

yaitu :

1. Lakukan regresi dalam persamaan (8.3.7) dan kemudian perlakukan nilai


koefisen

t1

yaitu

sebagai nilai estimasi dari

bias, tetapi merupakan estimasi

20

yang konsisten.

.Walaupun ini

2. Setelah mencapai

pada langkah pertama,kemudian lakukan

t = t - p t1

transformasi variabel

dan

x t =

Xt

X t1

dan kemudian lakukan transformasi regresi metode OLS pada transformasi


variabel persamaan (8.24)
Contoh 8.8 Metode Dua Langkah Durbin Permintaan Impor
Regresi permintan impor pada contoh 8.1 ,sebelumnya terletak didaerah keraguraguan .Kita akan mencoba menghilangkan unsur autokorelasi dengan metpde dua
langkah dari durbin.Kita mengestimasi persamaan (8.38) untuk mencari 3 estimasi
sebagai berikut :

t = 0 (1 ^ ) +
2 t1 +

1 ( X t - ^ X 1 t1 ) + 2 ( X t - ^ X t 1 p

^ t1 +v t

Nilai koefisien

(8.38)
pada variabel

estimasi merupakan bahwa

t1

merupakan nilai estimasi

.Hasil

= 0,5257.Hasil estimasi Generalized difference

aquation dapat dilihat dalam persamaan (8.39).Nilai statistik hitung d = 1,6468


sedangkan nilai kritis d pada
dy

=5% dengan

=22 dan k= 1 besarnya

dL

= 1,147 dan

dy

maka dapat disimpulkan bahwa sudah tidak ada autoorelasi didalam model

= 1,541 .Karena nilai d terletak antara

tersebut
Y^ t

= - 4364,756 62,89617

x 1t

+ 0,1515

(8.39)
t= (-1,8290)
R

(-1,9304)

(5,3216)

= 0,8437 dan d = 1,6468

Dimana :

21

x 2t

dy

dan 4-

X 1 t 1 ] , X 2 t
], X 1 t = (0,5357)

Y t - (0,5357 ) t1

=(

X 2 t - (0,5357) X 2 t 1

Dengan Metode Cocharane Orcutt

3.2.5. Estimasi

Uji ini merupakan uji alternatif untuk memperoleh nilai


diketahui.Metode

Cocharane

Orchutt
et

menggunakan nilai estimasi residual

sebagaimana

metode

yang tidak
yang

lain

untuk memperoleh informasi tentang

.Untuk memperjelas metode ini kita misalkan mempunyai model regresi

sederhana sebagai berikut :


t

1 Xt

et

et

mengikuti pola autoregresif (AR1) sebagai

(8.40)
Asumsikan bahwa residual
berikut :
et

pet 1

vt

(8.41)
Dimana residual
yakni E (

Vt

vt

memenuhi asumsi residual metode residual metode OLS

=0 ; var

Vt

2
=

; dan cov (

Vt

V t1

Metode yang kita bicarakan sebelumnya untuk mengestimasi


merupakan estimasi tunggal terhadap

hanya

.Oleh karena itu ,cocharane orchutt

merekomendasikan untuk mengestimasi


iletasi sampai mendapatkan nilai

=0

dengan regeresi yang bersifat

yang menjamin tidak terdapat masalah

22

autokorelasi dalam model.Adapun metode iterasi dari Cocharane Orchutt dapat


dijelaskan sebagai berikut :
1. Estimasi persamaan (8.40) dan kita dapatkan nilai residualnya

e^t

2. Dengan residualnya yang kita dapatkan maka lakukan regresi persamaan


berikut ini :
e^t
^p e^
t 1+ v t
=
(8.42)
3. Dengan

^p

yang kita dapatkan pada langkah kedua dari persamaan

(8.42) kemudian kita regresi persamaan berikut ini :


t -

^ t1 =

^p e^
t 1

0 (1

^ ) +

1 ( X t -

^ X 1 t1 ) + e t

(8.43)

Atau dapat ditulis dalam bentuk yang lebih sederhana menjadi persamaan
y t = 0 + 1
x t + e t

Dimana : 0 = 0 1- ^p

(8.44)
4. Karena kita tidak mengetahui apakah nilai

yang diperoleh dari

persamaan (8.42) adalah nilai estimasi yang terbaik,maka masukkan nilai


0

1- ^p

dan

1 yang diperoleh dalam persamaan (8.44)

kedalam persamaan awal (8.40) dan kemudian dapatkan residualnya

et sebagai berikut:

et = t

0 +

x t

(8.45)
5. Kemudian estimasi regresi sebagai berikut:

et = ^p e t + w t
(8.46)

23

^p

yang kita peroleh dari persamaan (8.46) ini merupakan langkah

kedua mengestimasi Nilai

Karena kita tidak juga mengetahui apakah langkah kedua ini mampu
^p

mengestimasi nilai

yang terbaik maka kita dapat melanjutkan pada langkah

ketiga dan seterusnya.Pertanyaannya,sampai seberapa langkah kita harus berhenti


melakukan proses iterative untuk mendapatkan nilai

.Menurut Cocharane-

akan kita hentikan jika nilainnya sudah terlalu kecil.

Orchutt,estimasi nilai

Contoh 8.9 Metode Cocharane Orchutt Permintaan Impor


Berdasarkan

uji

Durbhin-Watson

maupun

LM,regresi

permintan

impor

mengandung masalah autokorelasi.Estimasi model AR (1) pada persamaan (8.42)


menghasilkan nilai

sebesar 0,304191. Hasil estimasi Generalized difference

aquation dapat dilihat dalam persamaan (8.39).Nilai statistik hitung d = 1,6468


sedangkan nilai kritis d pada
dy

=5% dengan

=22 dan k= 1 besarnya

dL

= 1,147 dan

dy

maka dapat disimpulkan bahwa sudah tidak ada autoorelasi didalam model

= 1,541 .Karena nilai d terletak antara

tersebut
Y^ t

= - 6631,974 76,1351

x 1t

+ 0,1606 x 2t

(8.47)
t

(-2,6381)

(-2,8292)

(6,8339)

R2 = 0,8437 dan d = 1,6468


Dimana :

24

dy

dan 4-

= (

X2t

Yt

t1

- (0,3942 )

- (0,3042)

], X 1 t =

(0,3042)

X 1 t 1

] , X2t

X 2 t 1

3.2.6. Metode Newey ,Whitney dan Kenneth


Penyembuhan masalah autokorelasipada sub bab sebelumnya terfokus
pada

manipulasi

persamaan

sehingga

bias

terbebas

dari

masalah

autokorelasi.Sebagaimana kasus heteroskedasitas,para ahli ekonometrika

juga

telah mencoba mengembang metode standar error yang konsisten bila terdapat
masalah heteroskedatisitas yang dikenal dengan Heteroscedasticity-Consistent
Covariance Matrix Estimator (HCCME).Namun HCCME didasarkan pada asumsi
bahwa variable gangguan

et

tidak saling berhubungan aau tidak ada serial

korelasinya.Metode selanjutnya yang dikembangkan oleh Newey,Whitney dan


Kenneth memasukkan masalah unsure baik heteroskedasititas maupun masalah
autokorelasi.
Standar error yang konsisten bila ada unsur baik heteroskedastisitas
maupun

auotokorelasi

ini

dikenal

dengan

heteroskedasticity

and

Autocorrelacition Consisten Covariance Matrix (HAC).Formula penurunan HAC


ini tidak sesederhana seperti HCCME sebelumnya.Namun sekarang sudah banyak
program computer seperti EVIEWS menyediakan perhitungan HAC.

25

Anda mungkin juga menyukai