Anda di halaman 1dari 15

A.

Definisi Autokorelasi
Autokorelasi, korelasi antara anggota observasi satu dengan observasi lain yang
berlainan waktu. Dalam kaitannya dengan asumsi metode OLS, autokorelasi
merupakan korelasi antara satu variable gangguan dengan variable gangguan yang
lain. Sedangkan salah satu asumsi penting metode OLS berkaitan dengan variable
gangguan adalah tidak adanya hubungan antara variabel gangguaan satu dengan
variabel gangguan yang lain. Autokorelasi umumnya terjadi pada penelitian yang
menggunakan data time series namun dapat juga terjadi pada data cross section.
Secara Matematik autokorelasi dinyatakan sebagai :
Cov ( e i , e j )=0 untuk i j
B. Akibat Autokorelasi
Apabila asumsi-asumsi model regresi linier dapat dipenuhi, maka estimator OLS
(ordinary least square) koefisien regresi akan : linier, tidak berbias, dan mempunyai
varians yang minimum, singkatnya memenuhi standar BLUE (best linier unbiased
estimator). Sehingga terjadinya autokorelasi menyebabkan beberapa hal-hal berikut :
1. Estimator yang dihasilkan masih tetap tak bias dan asympot konsisten
2. Penduga tetap tak bias, konsisten tetapi tidak lagi efisien (variansnya tidak
lagi minimum). Oleh karena itu selang keyakinannya menjadi lebar dan
pengujian arti (signifikan) kurang kuat.
3. Estimasi standard error dan varian koefisien regresi yang didapat akan
underestimate.
4. Pemerikasaan terhadap residualnya akan menemui permasalahan.
5. Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak
berhubungan menjadi berhubungan. Biasa disebut spourious regression.
C. Cara Mendeteksi Autokorelasi
Ada beberapa metode untuk mendeteksi masalah Autokorelasi dalam suatu
regresi. Berikut beberapa metode tersebut :
1. Metode Grafik
Berdasarkan model sederhana seperti persamaan berikut:
Y t = 0+ 1 X t +et
Atau dalam bentuk defiasinya
y t =1 x t + ( e t e )

y t =Y tY

Dengan ketentuan :

x t= X t X

e E(et )
e t= yt b 1 x t
e t= 1 xt + ( e te ) b1 x t

( 1b 1) x t + ( e t e )
et =
Selanjutnya diketahui bahwa,

b1= 1 +

xt et
x 2t

Maka,
e t=

x t et
x 2t

x t + ( e te )

Dalam analisis time-series dapat diplot residuan ( e t ) dengan waktu (t)


atau dengan menvariasika antara

et

dengan

e t1 . Jika terjadi gambaran

yang menunjukan pola yang beraturan, yaitu semakin naik atau semakin turun ini
berarti terjadi gejala autokorelasi.
2. Metode Durbin-Watson (DW)
Prosedur uji yang dikembangkan oleh Durbin-Watson dijelaskan dengan
model sederhana seperti persamaan berikut:
Y t = 0+ 1 X 1 t +e t

et

Hubungan antara variable gangguan

hanya tergantung dari variable

gangguan sebelumnya e t1 atau disebut Model AR:


e t= e t 1 + v t
=0

Jika

maka

e t=v t

-1 <1 .
sehingga variable gangguan di dalam

persamaan tersebut tidak saling berhubungan atau tidak ada autokorelasi. Oleh
karena itu hipotesis nol tidak adanya autokorelasi dapat ditulis
>0 atau

sedangkan hipotesis alternatifnya

<0 atau

Untuk menguji hipotesis nol kita harus menghitung

H0 :

=0

0.

dan kemudian

menguji secara statistika apakah signifikan atau tidak.akan tetepi penurunan

distribusi probaaabilitas dari

sangat sulit dilakukan. Sebagai altrnatif,

Durbin dan Watson mengembangkan distribusi probabilitas yang berbeda. Uji


statistic Durbin-Watson didasarkan dari residual metode OLS. Adapun formula
uji statistic Durbin-Watson adalah sebagai berikut:
t=n

( t t1 )2

d= t=2

t =2

t2
t =1

dimana

t adalah residual metode kuadrat terkecil. Bagaimana d berhubungan

erat dengan

dan bagaimana mendapatkan uji statistic untuk masalah

autokorelasi, persamaan diatas dimanipulasi menjadi:


t=n

t=n

t =n

t + t 12 t t 1

d= t=2

t=2

t =2

t =n

t2
t =1

Karena

t2

dan

2t 1

berbeda hanya satu observasi, maka nilainya

hampir sama. Persamaan diatas dapat ditulis sebagai berikut:


d 1+12

dimana

(2)

t t 1
t2

(3)
Persamaan (3) merupakan koefisien autokorelasi orde pertama sebagai proksi
. Persamaan (2) dapat ditulis kembali menjadi

dari

d 2(1)

(4)

Karena -1 <1 maka berimplikasi bahwa


0d4

(5)

Dari persamaan (4) tersebut jika

=0

maka nilai

d=2

yang berarti

tidak adanya masalah autokorelasi (pada order pertama). Oleh karna itu sebagai
aturan kasar (rule of thumb) jika nilai d adalah 2, maka kita bisa mengatakan
bahwa tidak ada autokorelasi baik positif maupun negative. Jika
d 0,

=+1,

nilai

mengindikasikan adanya aautokorelasi positif. Oleh karena itu, nilai d

yang semakin mendekati nol menunjukkan semakin besar terjadinya autokorelasi


positif. Jika

=1 , nilai

d 4

yang berarti ada autokorelasi negative.

Dengan demikian nilai d yang semakin besar mendekati 4 maka semakin besar
terjadinya masalah autokorelasi negative.
Durbin-Watson telah berhasil mengembangkan uji statistic berdasarkan
persamaan (1) yang disebut uji statistic d. durbin-Watson berhasil menurunkan
nilai kritis batas bawah ( d l ) dan batas bawah ( d u ) sehinggaa jika nilai d
hitung dari persamaan (1) terletak diluar nilai kritis ini maka ada tidaknya

autokorelasi baik positif maupun negative dapat diketahui. Penentuan ada


tidaknya autokorelasi dapat dilihat dengan jelas dalam table dan gambar berikut.
Tabel 1. Uji Statistik Durbin-Watson d
Nilai Statistik d

Hasil

0 < d < d0

Menolak hipotesis nol; ada autokorelasi positif

d0 d d0

Daerah keragu-raguan; tidak ada keputusan

d0 d 4 d0

Menerima hipotesis nol; tidak ada autokorelasi


positif/negatif

4 d0 d 4 d0

Daerah keragu-raguan; tidak ada keputusan

4 d0 d 4

Menolak hipotesis nol; ada autokorelasi negatif

Gambar 2. Statistik Durbin-Watson d

Salah satu keuntungan dari uji DW yang didasarkan pada residual adalah
bahwa setiap program komputer untuk regresi selalu memberi informasi statistik
d. Adapun prosedur dari uji DW adalah sebagai berikut:
a. Melakukan regrsi model OLS dan kemudian mendapatkan nilai
residualnya
b. Menghitung nilai d (kebanyakan program komputer secara otomatis
menghitung nilai d)
c. Dengan jumlah observasi (n) dan jumlah variabel independen tertentu
tidak termasuk konstanta (k), kita cari nilai kritis d 0 dan d0 di statistik
Dirbin Watson
d. Keputusan ada tidaknya autokorelasi didasarkan tabel 1 atau gambar 2
3. Metode Breusch-Godfrey

Lagrange Multiplier menjadi dasar dari metode Breusch-Godfrey. Lagrange


Multiplier (LM) adalah uji untuk mengetahui apakah model Random Effectatau
model Common Effect (OLS) yang paling tepat digunakan. Uji signifikasi
Random Effect ini dikembangkan oleh Breusch Pagan. Metode Breusch Pagan
untuk uji signifikasi Random Effect didasarkan pada nilai residual dari metode
OLS. Adapun nilai statistik LM dihitung berdasarkan formula sebagai berikut:

Dimana :
n = jumlah individu
T = jumlah periode waktu
e = residual metode Common Effect (OLS)
Hipotesis yang digunakan adalah :
H0 : Common Effect Model
H1 : Random Effect Model
Uji LM ini didasarkan pada distribusi chi-squares dengan degree of freedom
sebesar jumlah variabel independen. Jika nilai LM statistik lebih besar dari nilai
kritis statistikchi-squares maka kita menolak hipotesis nul, yang artinya estimasi
yang tepat untuk model regresi data panel adalah metode Random Effect dari
pada metode Common Effect. Sebaliknya jika nilai LM statistik lebih kecil dari
nilai statistik chi-squaressebagai nilai kritis, maka kita menerima hipotesis nul,

yang artinya estimasi yang digunakan dalam regresi data panel adalah metode
Common Effect bukan metodeRandom Effect .
Pada kesempatan ini uji LM tidak digunakan karena pada uji Chow dan uji
Hausman menunjukan model yang paling tepat adalah Fixed Effct Model. Uji
LM dipakai manakala pada uji Chow menunjukan model yang dipakai adalah
Common Effect Model, sedangkan pada uji Hausman menunjukan model yang
paling tepat adalah Random Effect Model. Maka diperlukan uji LM sebagai
tahap akhir untuk menentukan model Common Effect atau Random Effect yang
paling tepat.
Uji Lagrange Multiplier (LM test) Uji autokorelasi dengan LM test terutama
digunakan unutk sample besar di atas 100 observasi. Uji ini lebih tepat
digunakan dibandingkan DW test terutama bila sample yang akan digunakan
relatif besar dan derajat autokorelasi lebih dari satu. Uji LM akan menghasilkan
statistik Breusch-Godfrey. Pengujian Breusch-Godfrey ( BG test ) dilakukan
dengan meregresi residual menggunakan autoregresive model dengan orde p :

Dalam penelitian ini uji autokorelasi menggunakan uji BreuschGodfrey Serial Correlation LM Test. Metode pengujian dengan uji BreuschGodfrey Serial Correlation LM Test didasarkan pada nilai F dan Obs*RSquared,

dimana jika

nilai

probabilitas

( p-

value)

danObs*R-

Squared melebihi tingkat kepercayaan, maka Ho diterima, artinya tidak


ada masalah autokorelasi
Uji ini dikembangkan oleh breusch-Godfrey.

Berdasarkan model tersebut Breusch-Godfrey mengasumsikan bahwa Ut


mengikuti autoregresif ordo p(AR(p)), sehingga membentuk model berikut:

D. Cara Mengatasi (Penyembuhan)


Penyembuhan masalah autokorelasi sangat tergantung dari sifat hubungan antara
residual. Atau dengan kata lain bagaimana bentuk struktur autokorelasi.
Kita tulis kembali model regresi sederhana sebagai berikut :
Y

(1)
Se bagaimana sebelumnya, diasumsikan bahwa residual mengikuti model

AR(1) sebagai berikut:


e1= et-1+vt

1< <1

(2)

Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal: (1) jika
atau koefisien model AR(1) diketahui; (2) jika tidak diketahui tetapi bsa dicari
melalu estimasi.
1.1.

Ketika Struktur Autokorelasi Diketahui


Pada kasus ketika koefisien model AR(1) yakni sruktur autokorelasi

diketahui, maka penyembuhan autokorelasi dapat dilakukan dengan transformasi


persamaan dikenal sebagai metode Generalize defference equation.
Untuk menjelaskan metode Generalize defference equation dalam kasus
adanya autokorelasi, misalkan kita mempunyai model regresi sederhana dan
residualnya (et) mengiikuti pola autogresif tingkat pertama AR(1) sbb:
Y

(1)
e1= et-1+vt 1< <1

(2)

Kita substitusikan persamaan (1) ke dalam prsamaan (2) sehingga


menghasilkan persamaan sbb:
Y1= 0+ 1X1+ et-1 + vt

(3)

Dimana et-1=Yt-1 0 1Xt-1

(4)

Kemudian kita substitusikan persamaan (4) ke dalam persamaan (3)


sehingga menghasilkan persamaan sbb:
Y1= 0+ 1X1+ (Yt-1 0 1Xt-1)+ vt
Y1 Yt-1=00+1X11Xt-1+vt
YtYt-1=0(1 ) + 1X11Xt-1+vt
=0(1)+1(XtXt-1)+vt

(5)

Dimana vt= et et-1 dan memenuhi asumsi OLS seperti persamaan (2)
Persamaan (5) tersebut dapat kita tulis menjadi:
Yt=0+tXt+vt

(6)

Dimana Yt=(YtYt-1);=0(1 ); 1= 1; Xt=(Xt Xt-1)


Residual vt dalam persamaan (6) sudah terbebas dari masalah autokorelasi
sehingga memenuhi asumsi OLS. Sekarang kita bisa mngaplikasikan metode
OLS terhadap transformasi variable Y* dan X* dan mendapatkan estimator yang
menghasilkan karakteristik estimator yang BLUE. Metode ini disebut
Generalized Least Squares (GSL).
1.2.

Ketika Struktur Autokorelasi Tidak Diketahui


Walaupun metode penyembuhan masalah autokorelasi sangat mudah

dilakukan dengan metode Generalized Least Squares (GSL) jika strukturnya


diketahui. Namun metode ini dalam prakteknya sangat sulit dilakukan. Kesulitan
ini muncul yang paling tepat untuk mengestimasi . Ada beberapa metode yang
telah dikembangkan oleh para ahli ekononterika untuk mengestimasi nilai .
1.2.1. Metode Diferensi Tingkat Pertama
Nilai terletak antara -11. Jika nilai =0 berarti ada korelasi residual
tingkat pertama (AR 1). Namun nilai = 1 maka model mengandung

autokorelasi baik positif maupun negative. Ketika nilai dari = 1, masalah


autokorelasi dapat disembuhkan mempunyai model sederhana seperti persamaan
(1) sebelumnya, mtode diferensi tingkat pertama (first difference) dapat
dijelaskan:
Y

(1)
Diferensi tingkat pertama persamaan (8.3) tersebut sebagaimana dalam
persamaan
YtYt-1=0(1 ) + 1X11Xt-1+vt

(5)

Jika = +1 maka persamaan tersebut dapat ditulis kembali menjadi


YtYt-1= 1(XtXt-1+(etet-1)

(7)

Atau dapat ditulis menjadi persamaan sbb:


Yt=1Xt+vt

(8)

Dimana adalah diferensi dan vt= etet-1


1.2.2. Estimasi Didasarkan Pada Berenblutt-Webb
Metode transformasi dengan firt difference bisa digunakan hanya jika nilai
tinggi atau jika nilai rendah. Dengan kata lain metode ini hanya akan valid jika
nilai = +1 yitu jika trjadi autokorelsi positif yang sempurn. Pertanyaannya
bagaimana kita bisa mengetahui asumsi bahwa = +1. Berenblutt-Webb telah
mnegembangkan uji statistic untuk menguji hipotesis bahwa = +1. Uji statistic
dari Berenblutt-Webb ini dikenal dengan uji statistik g. Rumus statistiknya dapat
ditulis sbb:
n

v 2t
g=

2
n

e tt
1

Dimana et adalah residual dari regresi model asli dan v t merupakan residual
dari regresi model first difference. Dalam menguji signifikansi statistic g
diasumsikan model asli mempunyai kostanta. Kemudian kita dapat menggunakan
table Durbin-Waston dengan hipotesis nol = 1 ditentukan dengan

membandingkan nilai hitungg dengan nilai kritis statistic d. Jika g dibawah nilai
batas minimal dL maka tidak menerima hipotesis nol sehingga kita bisa
mengatakan bahwa = 1 atau ada korelasi positif antara residual.

1.2.3. Estimasi Didasarkn Pada Statistik d Durbin Waston


Kita hanya bisa mnegaplikasikan metode transformasi first difference jika
nilai tinggi yakni mendekati satu. Metode ini tidak bisa digunakan ketika
rendah. Untuk kasus nilai rendah maka kita bisa menggunakan statistik d dari
Durbin waston seperti di dalam persamaan (8.8). kita bisa mengistimasi
dengan cara sbb:
d2 (1-)
atau dapat dinyatakan dalam persamaan sbb :
^ 1

d
2

1.2.4. Estimasi Dengan Metode Dua Langka Durbin


Untuk menjelaskan metode ini maka kita kembali ke model generalized
difference equation persamaan (8.24). kita tulis kembali persamaan tersebut sbb:
YtYt-1=0(1 ) + 1X11Xt-1+vt
Atau dapat ditulis kembali menjadi
Yt=0(1 ) + 1X t-11Xt-1+Y t-1+vt
Dimana vt =(et e t-1)
1.2.5. Estimasi Dengan Metode Corchrane-Orcutt
Uji ini merupakan uji alternative untuk memperoleh nilai yang tidak
diketahui

metode

Corchrane-Orcutt

sebagaimana

metode

yang

lain

mengguanakan nilai estimasi residual et untuk memperoleh informasi tentang


nilai . Untuk menjelaskan metode ini kita misalkan mempunyai model rgresi
sederhana sbb:

(8.40)
Diasumsikan bahwa residual (et) mengikuti pola autoregresif (AR1) sbb:
e t=et-+vt

Dimana residual vt memenuhi asumsi OLS


Metode yang kita bicarakan sebelumnya untuk mengestimasi hanya
merupakan estimasi tunggal terhadap . Oleh karena itu, Corchrane-Orcutt
merekomendasi untuk mengestimasi dengan regresi yang bersifat iterasi sampai
mendapatkan nilai yang dijamin tidak terdapat masalah autokorelasi dalam
model. Adapun metode iterasi dari Corchrane-Orcutt dapat dijelaskan sbb:
1. Estimasi persamaan sebelumnya dan kita dapatkan nilai residualnya e^ t
2. Dengan residual yang diperoleh maka lakukan regeresi persamaan berikut ini:
e^ t= ^ e^ t-1+v1
3. Dengan ^ yang kita dapatkan pada langkah kedua dari persamaan diatas
kemudian kita regresi persamaan berikut ini:
Yt ^ Yt-1=0 ^ 0 + 1Xt ^ 1Xt-1+ e^ t
t-1

Yt ^ Yt-1=0(1

E. Contoh
Berikut contoh

pendeteksian

^ e^

^ ) + 1(Xt ^ Xt-1+vt

autokorelasi

pada

suatu

model

regresi

menggunakan software Eview 7.


Data Impor, PDB dan Indeks Harga Konsumen (IHK) tahun 1987-2002
Tahun

Impor

PDB

IHK

1987
1988
1989
1990
1991
1992
1993
1994

28.4
32.0
37.7
40.6
47.7
52.9
54.5
64.0

635.7
688.1
753.0
796.3
868.5
935.5
982.4
1063.4

92.9
94.5
97.2
100.0
104.2
109.8
116.3
121.3

1995
1996
1997
1998
1999
2000
2001
2002
Dimana :
Y = Impor
X1 = PDB
X2 = IHK

79.5
94.4
131.9
126.9
155.4
185.8
217.5
260.9

1171.1
1306.6
1412.9
1528.8
1702.2
1899.5
2127.6
2368.5

125.3
133.1
147.7
161.2
170.5
181.5
195.4
217.4

Dari hasil LM di atas di peroleh nilai X2hitung (Obs*R-squared ) = 2,312392


lebih kecil dari pada X2Tabel = 4,57 pada level signifikansi 5%. Dengan
demikia Hipotesis nol (Ho) yang menyatakan bahwa tidak ada autokerelasi
diterima. Artinya dalam model yang diestimasi tersebut tidak mengandung

korelasi serial antara factor pengganggu (error term).


Berdasarkan nilai probabilitas Obs*R-squared sebesar 0,3147 > 0,05 makan

dapat dikatakan bahwa model regresi ini tidak terdapat autokorelasi.


F. Kesimpulan
Kaitannya dengan asumsi metode OLS, Autokorelasi merupakan korelasi antara
satu variabel gangguan dengan variabel gangguan yang lain. Jika ada autokorelasi
dalam regresi maka estimator yang didapatkan aka mempunyai karakteristik bahwa
estimator metode OLS masih linier, masih tidak bias, dan tidak mempunyai varian
yang minimum lagi (no longer best). konsekuensi jika estimator tidak mempunyai
varian yang minimum menyebabkan perhitungan standard error metode OLS tidak
lagi bisa dipercaya kebenarannya, selanjutnya interval estimasi maupun uji hipotesis
yang didasarkan pada distribusi t maupun F tidak lagi bisa dipercaya untuk evaluasi
hasil regresi.
Terdapat beberapa metode deteksi untuk mengetahui ada tidaknya masalah
autokorelasi di dalam suatu model regresi yaitu metode Durbin-Watson (DW) dan
metode Breusch-Godfrey (BG). Penyembuhan masalah autokorelasi sangat
bergantung dari sifat hubungan antara residual atau bagaimana bentuk struktur
autokorelasi yaitu ketika struktur autokorelasi diketahui maka penyembuahan
autokorelasi dapat dilakukan dengan transformasi persamaan dikenal sebagai metode
Generalized difference equation dan ketika struktur autokorelas tidak diketahui maka
dapat dilakukan beberapa metode seperti metode diferensi tingkat pertama, estimasi

didasarkan pada Berenblutt-Webb, estimasi

Durbin-Watson, estimasi

didasarkan pada statistik d

dengan metode dua langkah Durbin, estimasi

dengan metode Cochrane-Orcutt, dan metode Newey, Whitney, Kenneth (HAC =


Heteroskedasticity and Autocorrelation Consistent Covariance Matrix).

Anda mungkin juga menyukai