Anda di halaman 1dari 30

MAKALAH

AUTOKORELASI
Tugas Mata Kuliah
"EKONOMETRIKA"
Dosen Pengampu :
Ana M. Maghfiroh, M. Pd.

Disusun oleh :
Kelompok 7
1. Bagus Prima Handika (12403193059)
2. Laelatul Naromi (12403193082)
3. Wafieq Alfira N. Z (12403193086)

JURUSAN AKUNTANSI SYARIAH 5B


FAKULTAS EKONOMI BISNIS ISLAM
UNIVERSITAS ISLAM NEGERI SAYYID ALI RAHMATULLAH
TULUNGAGUNG
2021
KATA PENGANTAR

Puji syukur kami panjatkan kehadirat Tuhan Yang Maha Esa atas segala
rahmat, karunia, serta taufik dan hidayah-Nya sehingga makalah ini dapat
terselesaikan. Shalawat dan salam semoga senantiasa abadi tercurahkan kepada
Nabi Muhammad SAW. dan umatnya. Sehubung dengan selesainya Makalah
tentang "Ekonometrika (Autokorelasi)" ini maka kami mengucapkan terima kasih
kepada:
1. Bapak Dr. Maftukhin, M.Ag. selaku Rektor Universitas Islam Negeri Sayyid
Ali Rahmatullah Tulungagung.
2. Bapak Prof. H. Imam Fu’adi, M.Ag. selaku Wakil Rektor bidang Akademik
dan Pengembangan Lembaga Universitas Islam Negeri Sayyid Ali
Rahmatullah Tulungagung.
3. Bapak Dr. H. Dede Nurohman, M.Ag. selaku Dekan Fakultas Ekononomi dan
Bisnis Islam Universitas Islam Negeri Sayyid Ali Rahmatullah Tulungagung.
4. Bapak Dr. Mashudi, M.PdI. selaku Ketua Jurusan Akuntansi Syariah
Universitas Islam Negeri Sayyid Ali Rahmatullah Tulungagung.
5. Ibu Ana M. Maghfiroh, M. Pd., selaku dosen mata kuliah KEkonometrika
Universitas Islam Negeri Sayyid Ali Rahmatullah Tulungagung.
6. Semua pihak yang telah membantu terselesaikannya makalah ini.

Oleh sebab itu, kami berharap adanya kritik, saran dan usulan demi
perbaikan yang telah kami buat di masa yang akan datang, mengingat tidak ada
sesuatu yang sempurna tanpa saran yang membangun. Akhir kata, mohon maaf
apabila terdapat banyak kesalahan dalam makalah ini. Semoga makalah ini
bermanfaat dan mendapat ridha Allah SWT.

Tulungagung, 9 September 2021


Penyusun
Kelompok 7

ii
DAFTAR ISI

KATA PENGANTAR ......................................................................................ii


DAFTAR ISI ....................................................................................................iii
BAB I PENDAHULUAN .................................................................................1
A. Latar Belakang .......................................................................................1
B. Rumusan Masalah ..................................................................................2
C. Tujuan ....................................................................................................2
BAB II PEMBAHASAN ..................................................................................2
A. Pengertian dan Makna Autokorelasi .......................................................2
B. Sifat dan Konsekuensi dari Autokorelasi ...............................................3
C. Deteksi Autokorelasi ..............................................................................6
D. Penyembuhan Autokorelasi ....................................................................13
BAB III PENUTUP ..........................................................................................27
A. Kesimpulan ............................................................................................27
DAFTAR PUSTAKA .......................................................................................28

iii
BAB I
PENDAHULUAN
A. Latar Belakang
Statistika banyak digunakan dalam memecahkan masalah kehidupan
sehari-hari, baik dalam bidang ekonomi, kedokteran, kesehatan,
kependudukan, psikologi, sosial, maupun bidang-bidang yang lain.
terdapat banyak metode dalam statistika, di antaranya adalah analisis
regresi. Analisis regresi merupakan analisis statistika yang dilakukan
untuk memodelkan hubungan antara variable dependen dan variable
independen.
Terdapat dua jenis regresi yaitu regresi linear dan regresi nonlinear.
Regresi linear menyatakan bentuk hubungan di mana variable dependen
dan variable independen berpangkat satu. Regresi linear dibedakan
menjadi dua yaitu regresi linear sederhana dan regresi linear
berganda.Apabila terdapat hubungan linear variable dependen dengan satu
variable independen disebut regresi linear sederhana, sedangkan hubungan
variable antara variable dependen dengan dua atau lebih variable
independen disebut sebagai regresi linear berganda. Analisis regresi linear
berganda lebih sering digunakan karena suatu peristiwa dapat disebabkan
oleh berbagai factor yang memengaruhi, seperti harga suatu barang
dipengaruhi oleh bahan baku, bahan tambahan, biaya pengolahan, biaya
transportasi, dan lain-lain.
Asumsi-asumsi yang harus dipenuhi pada analisis regresi klasik yaitu
memenuhi asumsi linearitas, tidak terjadi autokorelasi dengan melihat nilai
Durbin Watson, jika d < dL, maka ada autokorelasi positif, sedangkan jika
4 – d < dL, maka ada autokorelasi negative, tidak terjadi multikolinearitas,
memenuhi normalitas, dan tidak terjadi hesteroskedastisitas.
Salah satu asumsi analisis regresi linear berganda yaitu tidak terdapat
autokorelasi. Apabila terjadi autokorelasi, estimasi metode kuadrat terkecil
memiliki varians yang tidak minimum, sehingga uji statistic tidak dapat
digunakan untuk menarik kesimpulan.

1
B. Rumusan Masalah
1. Apakah pengertian dan makna dari autokorelasi?
2. Apa sifat dan konsekuensi dari autokorelasi?
3. Apa yang dimaksud dengan deteksi masalah autokorelasi?
4. Bagaimana cara penyembuhan autokorelasi?
C. Tujuan
1. Untuk mengetahui pengertian dan makna dari autokorelasi.
2. Untuk mengetahui sifat dan konsekuensi dari autokorelasi.
3. Untuk mengetahui maksud dari deteksi masalah autokorelasi.
4. Untuk mengetahui bagaimana cara penyembuhan autokorelasi.

BAB II
PEMBAHASAN

A. Pengertian dan Makna Autokorelasi


1. Autokorelasi
Menurut Nachrow dan Hardius Usman, autokorelasi adalah korelasi
yang terjadi antar observasi dalam satu variable. Secara harfiah
autokorelasi berarti adanya korelasi antara anggota observasi satu dengan
observasi lain yang berlainan waktu. Dalam kaintannya dengan asumsi
metode OLS, autokorelasi merupakan korelasi antara satu variable
gangguan dengan variable gangguan yang lain. Sedangkan salah satu
asumsi penting metode OLS berkaitan dengan variable gangguan adalah
tidak adanya hubungan antara variable gangguan satu dengan gangguan
variable yang lain1.
2. Jenis Autokorelasi
1) Autokorelasi Positif

1
Agus Widarjono, Ekonometrika Pengantar dan Aplikasinya Disertai Panduan EViews,
(Yogyakarta: UPP STIM YKPN, 2018), hlm. 137

2
Gambar 8.1 (a) Autokorelasi Positif

Autokorelasi positif adalah autokorelasi dimana error yang selalu


diikuti oleh error yang sama tandanya. misalnya ketika satu periode
sebelumnya positif maka error berikutnya akan positif.

2) Autokorelasi Negatif

Gambar 8.1 (b) Autokorelasi Negatif


Autokorelasi negatif adalah autokorelasi dimana error akan diikuti
oleh error yang berbeda tandanya. Misalnya ketika errornya positif
maka akan diikuti oleh error negatif pada periode selanjutnya.
B. Sifat dan Konsekuensi dari Autokorelasi
Secara harfiah autokorelasi berarti adanya korelasi antar anggota
observasi satu dengan observasi lain yang berlainan waktu. Dalam kaitannya
dengan asumsi metode OLS, autokorelasi merupakan korelasi antara satu
variable gangguan dengan variable gangguan yang lain. Sedangkan salah satu
asumsi penting metode OLS berkaitan dengan variable gangguan adalah tidak

3
adanya hubungan antara variable gangguan satu dengan variable gangguan
yang lain. 2 Tidak adanya serial korelasi antara variable gangguan ini
sebelumya dinyatakan sebagai berikut :
E ( ei , ej ) = 0 i≠j (8.1)
Asumsi yang dapat digunakan untuk mengapa terjadinya autokorelasi
adalah misalkan kita menganalisis data runtut waktu output nasional atau
GDP tahunan. Jika suatu ketika ada gejolak ekonomi (shock) maka gejolak ini
akan berpengaruh terhadap GDP pada saat ini dan juga ada periode-periode
berikutnya. Begitu pula ketika pemerintah mengeluarkan kebijakan fiskal
maupun moneter untuk mengatasi penurunan GDP tersebut. Setiap kebijakan
ekonomi pasti akan memerlukan periode waktu untuk mempengaruhi system
ekonomi sehingga akhirnya mempengaruhi kenaikan GDP. Dalam kondisi
seperti ini maka jika kita menganalisis data runtut waktu maka variable
gangguan antara waktu akan saling berhubungan. Oleh karena itu, data runtut
waktu diduga sering kali mengandung unsur autokorelasi. Sedangkan data
cross section diduga jarang ditemui adanya unsur autokorelasi. Adanya
korelasi antar variable gangguan ini dengan demikian dapat kita nyatakan
sebagai berikut :

E ( ei , e j ) ≠ 0 i≠j (8.2)

Untuk mengetahui hal ini maka kita asumsikan model mengandung


unsur autokorelasi tetapi masih mempertahankan asumsi-asumsi metode
OLS. Misalkan kita mempunyai model sederhana sebagai berikut :

Yt = β0 + β1Xt + et (8.3)

Asumsi berkitan dengan variable gangguan dalam metode OLS adalah


sebagai berikut :

E ( et ) = 0 var ( et ) = σ2 cov(et,es) = 0 dimana t ≠ s

2
Agus Widarjono, Ekonometrika Pengantar dan Aplikasinya Disertai Panduan EViews,
(Yogyakarta: UPP STIM YKPN, 2018), hlm. 137-140.

4
Yaitu nilai harapan dari variable gangguan adalah nol, varian dari
variable gangguan adalah tetap dan tidak ada korelasi antara variable
gangguan satu periode waktu dengan variable gangguan perode waktu lain.
Namun sekarang kita akan mencoba membahas apa yang terjadi terhadap
estimator β1 jika variable gangguan saling berhubungan.

Ada beberapa model yang dapat digunakan untuk menjelaskan masalah


hubungan antara variable gangguan yang satu dengan variable gangguan yang
lain dalam persamaan (8.3) tersebut. Yang paling umum digunakan adalah
model autoregresif tingkat pertama (autoregressive) disingkat AR (1)1.
Didalam model ini variable gangguan et hanya tergantung dari variable
gangguan sebelumnya et-1. Model AR (1) tersebut dapat ditulis sebagai
berikut3 :

et = pet-1 + vt -1 <p<1 (8.4)

ρ (rho) adalah gangguan parameter yang menjelaskan hubungan antara


variable gangguan et. Variabel gangguan vt ini diasumsikan mempunyai rata-
rata nol atau E (vt) = 0; mempunyai varian yang konstan atau var(vt) =σ2; dan
tidak mengandung unsur autokorelasi atau cov (vt , vt-1) = 0. Dengan kata lain
variable gangguan vt mengikuti asumsi metode OLS yang dikembangkan.

Dengan adanya autokorelasi didalam model tersebut. Maka estimator


dalam metode OLS adalah sebagai berikut :

𝛴𝑋𝑖 𝑌𝑖
̂β= 𝛴𝑋𝑖 2
(8.5)

Persamaan (8.5) tersebut menyatakan bahwa estimator ( ̂ β ) masih


bersifat linear dan tidak bias. Sedangkan varian estimator yang tidak
mengandung masalah autokorelasi adalah sebagai berikut :

𝜎2
var = ( ̂ β) = 𝛴𝑋𝑖 2 (8.6)

3
ibid

5
Namun, bila terdapat autokorelasi pada tingkat autoregresif pertama
(AR1) maka varian estimator ( ̂ β ) adalah sebagai berikut :

𝜎2 2𝜎 2 ∑𝑛−1 ∑𝑛−2 ∑𝑛−2


var = ( ̂ β) = 𝛴𝑋𝑖 2 + [𝑝 𝑡=1 𝑋𝑡 𝑋𝑡+1
∑𝑛 2 + 𝑝² 𝑡=1 𝑋𝑡 𝑋𝑡+2
∑𝑛 2 + ⋯ 𝑝𝑛−1 𝑡=1 𝑋𝑡 𝑋𝑛
∑𝑛 2 ] (8.7)
𝛴𝑋𝑖 2 𝑡=1 𝑋𝑡 𝑡=1 𝑋𝑡 𝑡=1 𝑋𝑡

Pada persamaan (8.6) varian yang mengandung AR (1) besarnya sama


dengan varian yang tidak mengandung autokorelasi plus angka tertentu. Hal
ini menunjukkan bahwa varian OLS tersebut underestimate. Dengan
demikian jika ada autokorelasi dalam regresi maka estimator yang kita
dapatkan akan mempunyai karakteristik sebagai berikut 4:

1) Estimator metode OLS masih tidak bias (unbiased)


2) Estimator metode OLS masih linear (linear)
3) Namun estimator metode OLS tidak mempunyai varian yang minimum
lagi (no longer best)\

Jadi dengan adanya autokorelasi, estimator OLS tidak menghasilkan


estimator yang BLUE hanya LUE. Apabila estimator tidak mempunyai varian
yang minimum maka konsekuensinya sebagai berikut :

1) Jika varian tidak minimum maka memyebabkan perhitungan standard


error metode OLS tidak lagi bisa dipercaya kebenarannya.
2) Selanjutnya interval estimasi maupun uji hipotesis yang didasarkan
pada distribusi t maupun F tidak lagi bisa dipercaya untuk evaluasi hasil
regresi.
C. Deteksi Masalah Autokorelasi
1) Metode Durbin-Watson (DW)
Yt = β0 + β1Xt + et (8.3)
Hubungan antara variable gangguan et hanya tergantung dari variable
gangguan sebelumnya et-1 atau disebut Model AR (1) seperti persamaan
(8.4) sebelumnya:
et = ρet-1 + vt -1 < ρ < 1 (8.4)

4
ibid

6
Jika ρ = 0 maka et = vt sehingga variable gangguan dalam persamaan
tersebut tidak saling berhubungan atau tidak ada autokorelasi. Oleh karena
itu, hipotesis nol tidak adanya autokorelasi dapat ditulis H0 : ρ = 0
sedangkan hipotesis alternatifnya Hα : ρ < 0 atau Hα : ρ ≠ 0. Karena
sebagian besar dari data time series menunjukkan adanya autokorelasi
positif maka Hα : ρ > 0.
Untuk menguji hipotesis nol maka harus menghitung ρ dan
kemudian menguji secara statistika apakah signifikan atau tidak. Sebagai
alternative, Durbin-Watson mengembangkan distribusi probabilitas yang
berbeda. Uji statistic Durbin-Watson tersebut didasarkan dari residual
metode OLS dengan formula 5:
∑𝑡=𝑛
𝑡=2 (𝑒𝑡 −𝑒𝑡−1 )
2
d= ∑𝑡=𝑛 2 (8.8)
𝑡=1 ê𝑡

di mana êt adalah residual metode kuadrat terkecil. Bagaimana d


berhubungan erat dengan ρ dan bagaimana mendapatkan uji statistic untuk
masalah autokorelasi maka manipulasi persamaan (8.8) di atas menjadi:
∑𝑡=𝑛 2 𝑡=𝑛 2 𝑡=𝑛
𝑡=2 ê𝑡 + ∑𝑡=2 ê𝑡 ê𝑡−1−2 ∑𝑡=2 ê𝑡 ê𝑡−1
d= ∑𝑡=𝑛 2 (8.9)
𝑡=1 ê𝑡

Karena ∑ ê2𝑡 dan ∑ ê2𝑡−1 berbeda hanya satu observasi, maka nilainya
hampir sama. Persamaan (8.9) dapat ditulis:
d ≈ 1 + 1 – 2ρ = 2 - 2ρ (8.10)
∑ ê𝑡 ê𝑡−1
Di mana ρ = ∑ ê2𝑡
(8.11)

Persamaan (8.11) merupakan koefisien autokorelasi order pertama sebagai


proksi dari ρ. Persamaan (8.10) dapat ditulis kembali menjadi:
d ≈ 2 (1 - ρ) (8.12)
Karena -1 ≤ ρ ≤ 1 maka berimplikasi bahwa:
0≤d≤4 (8.13)
Dari persamaan (8.12) jika ρ = 0 maka nilai d = 2 yang berarti tidak
adanya masalah autokorelasi (pada order pertama). Oleh karena itu,
sebagai aturan dasar jika nilai d ≈ 2, maka dapat dikatakan bahwa tidak

5
ibid

7
ada autokorelasi baik positif maupun negative. Jika ρ = +1, maka nilai d ≈
0, mengindikasikan adanya autokorelasi positif. Oleh karena itu, nilai d
yang semakin mendekati nol menunjukkan semakin besar terjadinya
autokorelasi positif. Jika ρ = -1, nilai d ≈ 4, berarti ada autokorelasi
negative. Dengan demikian nilai d yang semakin besar mendekati 4 maka
semakin besar terjadinya masalah autokorelasi negative.
Tabel 8.1. Uji Statistik Durbin-Watson 𝒅

Nilai Statistik 𝑑 Hasil


0 < d < 𝑑𝐿 Menolak hipotesis nol; ada autokorelasi positif
𝑑𝐿 < d < 𝑑𝑈 Daerah keragu-raguan; tidak ada keputusan
𝑑𝑈 < d < 4 - 𝑑 𝑈 Gagal menolak hipotesis nol; tidak ada autokorelasi
4 - 𝑑𝑈 < d < 4-𝑑𝐿 positif/negatif
4 - 𝑑𝐿 < d <4 Daerah keragu-raguan; tidak ada keputusan
Menolak hipotesis nol; ada autokorelasi negatif

Durbin-Watson telah berhasil mengembangkan uji statistik


berdasarkan persamaan (8.9) yang disebut uji statistik 𝑑. Durbin-Watson
berhasil menurunkan nilai kritis batas bawah (𝑑𝐿 ) dan batas atas (𝑑𝐿 )
sehingga jika nilai 𝑑 hitung dari persamaan (8.9) terletak di luar nilai kritis
ini maka ada tidaknya autokorelasi baik positif atau negatif dapat
diketahui. Penentuan ada tidaknya autokorelasi dapat dilihat dengan jelas
dalam Tabel 8.1.

Salah satu keuntungan dari uji DW yang didasarkan pada residual


adalah bahwa setiap program komputer untuk regresi selalu memberi
informasi statistik 𝑑. Adapun prosedur dari uji DW sebagai berikut 6:

1) Melakukan regresi metode OLS dan kemudian mendapatkan nilai


residualnya.

6
ibid

8
2) Menghitung nilai 𝑑 dari persamaan (8.9) (Kebanyakan program
komputer secara otomatis menghitung nilai 𝑑).
3) Dengan jumlah observasi (𝑛) dan jumlah variabel independen tertentu
tidaktermasuk konstanta (𝑘), kita cari nilai kritis 𝑑𝐿 dan 𝑑𝑈 di statistik
Durbin Watson
4) Keputusan ada tidaknya autokorelasi didasarkan Tabel 8.1

Contoh Uji Autokorelasi DW Ekspor Pakian Jadi ke Jepang

Diketahui hasil regresi dan beberapa informasi statistik sebagai berikut:

𝑃𝑡 = −4067,496 − 7,8150𝑋1𝑡 + 1001,855𝑋2𝑡


T (−0,8872) (4,2973) (7,6884)
𝑅2 =0,9111 𝐹 = 66,8199 𝑑 = 2,1617

Nilai statistik hitung 𝑑 = 2,1617 sedangkan nilai kritis 𝑑 pada 𝛼 = 5%


dengan 𝑛 = 13 dan 𝑘 = 2 untuk d = 0,861 dan nilai 𝑑𝑈 = 1,562.
Sedangkan nilai 4−𝑑𝑈 = 2,438 dan 𝑑𝐿 − 4 = 3,139. Karena nilai statistik
hitung 𝑑 terletak antara 𝑑𝑈 dan 4−𝑑𝑈 maka dapat disimpulkan tidak ada
masalah autokorelasi.

Walaupun uji autokorelasi dari Durbin-Watson mudah dilakukan


karena informasi nilai statistik hitung 𝑑 selalu diinformasikan setiap
program komputer, namun uji ini mengandung beberapa kelemahan 7.
Pertama, uji ini hanya berlaku jika variabel independen bersifat random
atau stokastik. Jika uji ini memasukkan variabel independen yang bersifat
nonstokastik seperti memasukkan variabel kelambanan 𝑙𝑎𝑔 dari variabel
dependen sebagai variabel independen yang disebut dengan model
autoregresif maka uji Durbin Watson tidak bisa digunakan. Kedua, uji
Durbin-Watson hanya berlaku jika hubungan autokorelasi antar residual
dalam order pertama atau autoregresif order pertama disingkat AR (1). Uji
ini tidak bisa dilakukan untuk model autoregresif yang lebih tinggi seperti

7
ibid

9
AR (2), AR(3) dan seterusnya. Ketiga, model ini juga tidak bisa digunakan
dalam kasus rata-rata bergerak (moving average) dari residual yang lebih
tinggi. Contoh dalam model regresi 𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 maka uji
autokorelasi dengan AR(1) sebagaimana dalam persamaan (8.3) e𝑡 =
𝑝e𝑡−1 + v𝑡 Sedangkan uji autokorelasi dengan metode moving average,
misalnya moving average tiga periode dapat ditulis sebagai berikut

e𝑡 = 𝑣𝑡 + 𝜋1 𝑣𝑡−1 + 𝜋2 𝑣𝑡−2

2) Metode Breusch-Godfrey
Breusch dan Godfrey mengembangkan uji autokorelasi yang lebih
umum dan dikenal dengan uji Lagrange Multiplier (LM)4 . Untuk
memahami uji LM, misalkan kita mempunyai model regresi sederhana
sebagai berikut 8:

𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 (8.17)

Sebagai catatan kita bisa memasukkan lebih dari satu variabel


independen, namun untuk memudahkan kita menggunakan model regresi
sederhana. Kita asumsikan model residualnya mengikuti model
autoregresif dengan order 𝑝 atau disingkat AR (𝑝) sebagai berikut:

e𝑡 = P1 e𝑡−1 + P2 e𝑡−2 +……+p𝑝 e𝑡−𝑝 + v𝑡 (8.18)

Di mana v𝑡 dalam model ini mempunyai ciri sebagaimana dalam


persamaan (8.3) memenuhi asumsi OLS yakni 𝐸(v𝑡 )= 0; 𝑣𝑎𝑟(v𝑡 ) = 𝜎 2
dancov(v𝑡 v𝑡−1 ) = 0. Sebagaimana uji Durbin-Watson untuk AR(1), maka
hipotesis nol tidak adanya autokorelasi untuk model AR (𝑝) dapat
diformulasikan sebagai berikut:

𝐻𝑜 : 𝑝1 = P2 = ⋯ = P𝑝 = 0
H𝑎 : p1 ≠ P2 ≠ ⋯ = P𝑝 ≠ 0 (8.19)

8
ibid

10
Jika kita gagal menolak H𝑜 , maka dikatakan tidak ada autokorelasi dalam
model. Adapun prosedur uji dari LM adalah sebagai berikut9:

1) Estimasi persamaan (8.17) dengan metode OLS dan kita dapatkan


residualnya.
2) Melakukan regresi residual ẽ𝑡 , dengan variabel independen 𝑋𝑡 , (jika
ada lebih dan satu variabel independen maka kita harus masukkan
semua variabel independen) dan lag dari residual
e𝑡−1 , e𝑡−2 … e𝑡−𝑝 .Langkah kedua ini dapat ditulis sebagai berikut:
ẽ𝑡 = 𝜆𝑜 + 𝜆1 𝑋𝑡 + 𝑝1 ẽ𝑡−1 + 𝑝2 ẽ𝑡−2 + ⋯ + 𝑝𝑝 ẽ𝑡−𝑝 + 𝑣𝑡 (8.20)
Kemudian dapatkan R2 dari regresi persamaan (8.20)
3) Jika sampel adalah besar, maka menurut Breusch dan Godfrey maka
model dalam persamaan (8.20) akan mengikuti distribusi Chi-Squares
dengan 𝑑𝑓 sebanyak 𝑝 yaitu panjangnya kelambanan residual dalam
persamaan (8.20). Nilai hitung statistik Chi-Squares dapat dihitung
dengan menggunakan formula sebagai berikut:
𝑛𝑅2 ~𝑥𝑝2 (8.21)

Jika (𝑛𝑅2 ) yang merupakan chi-squares (𝑥 2 ) hitung lebih besar


dari nilai kritis chi squares (𝑥 2 ) pada derajat kepercayaan tertentu (𝛼),
kita menolak hipotesis nol H𝑜 , Hal ini berarti paling tidak ada satu 𝑝
dalam persamaan (8.18) secara statistik signifikan tidak sama dengan
nol. Ini menunjukkan adanya masalah autokorelasi dalam model.
Sebaliknya jika nilai Chi-Squares hitung lebih kecil dari nilai kritisnya
maka kita gagal menolak hipotesis nol. Artinya model tidak
mengandung unsur autokorelasi karena semua nilai 𝑝 sama dengan nol.
Penentuan ada tidaknya masalah autokorelasi juga bisa dilihat dari nilai
probabilitas chi-squares (𝑥 2 ). Jika nilai probabilitas lebih besar dari
nilai 𝛼 yang dipilih maka kita gagal menolak Ho yang berarti tidak ada
autokorelasi. Sebaliknya jika nilai probabilites lebih kecil dari nilai 𝛼

9
ibid

11
yang dipilih maka kita menolak H𝑜 yang berarti ada masalah
autokorelasi.

Kelemahan deteksi metode LM yang dikembangkan oleh Breusch-


Godfrey ini dalam hal menentukan panjangnya kelambanan (𝑝) untuk
variabel cesidual. 10 Keputusan ada tidaknya masalah autokorelasi
sangat tergantung dari kelambanan yang kita pilih. Kita akan
melakukan metode coba-coba (trial and errors) hanya demi menghindari
masalah autokorelasi. Untuk memilih panjangnya lag residual yang
tepat kita bisa menggunakan kriteria yang dikemukakan oleh Akaike
dan Schwarz. Berdasarkan kriteria ini, panjangnya lag yang dipilih
adalah ketika nilai kriteria Akaike dan Schwarz paling kecil. Caranya
kita melakukan regresi persamaan (8.20) berkali-kali dengan diawali
dengan lag residual 1. kemudian dengan lag residual 2 dan seterusnya.
Dari hasil regresi tiap lag ini kita akan mendapatkan nilai Akaike dan
Schwarz dan kemudian kita cari nilai absolut yang paling kecil.

Contoh Uji Autokorelasi Metode LM

Ekspor Pakaian Jadi ke Jepang

Kembali ke kasus eksplor pakaian jadi ke Jepang. Uji Durbin-


Watson menunjukkan tidak ada autokorelasi. Bagaimana dengan uji
LM? Tabel 8.3 menampilkan uji LM. Nilai 𝑥 2 hitung sebesar 3,6524
sedangkan 𝑥 2 kritis dengan 𝑑𝑓 = 2 pada 𝛼 = 5% sebesar 5,99147. Uji
LM ini menunjukkan tidak ada autokorelasi pada kelambanan 2.

10
ibid

12
Tabel Uji Autokorelasi dengan Metode LM

Ekspor Pakaian Jadi ke Jepang

Breusch – Godfrey Serial Correlation LM Test :


F- statistic 1.626916 Probability 0.240456
𝑂𝑏𝑠 ∗ 𝑅 −squared 3.652444 Probability 0.161021
Departement Variabel : RESID
Variable Coefficient Std.Error t-Statistic Prob.
C 1536.315 4486.555 0.342426 0.7385
X1 3.617009 2.666802 1.356310 0.2022
X2 -335.3532 223.7768 -1.496606 0.1621
RESID(-1) -0.450200 0.347401 -1.295910 0.2215
RESID(-2) -1.052855 0.594193 -1,771908 0.1041
𝑅 −squared 0.228278 Akaike info criterion 21.63949
Durbin-Watson 2.416622 Schwarz criterion 21.88093
stat

D. Penyembuhan Autokorelasi
Penyembuhan masalah autokorelasi sangat tergantung dari sifat hubungan
antara residual11. Atau dengan kata lain bagaimana bentuk struktur
autokorelasi. Kita tulis kembali model regresi sederhana seperti dalam
persamaan (8.3) sebagai berikut:

𝑌𝑡 =β𝑜 + β1 X 𝑡 + e𝑡 (8.3)

Sebagaimana sebelumnya, diasumsikan bahwa residual mengikuti model


AR(1) sebagal berikut:

e𝑡 = 𝑝e𝑡−1 + v𝑡 -1< p <1 (8.4)

11
ibid

13
Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal: (1)
jika 𝑝 atau koefisien model AR(1) diketahui; (2) jika 𝑝 tidak diketahui tetapi
bisa dicari melalui estimasi.

1) Ketika Struktur Autokorelasi Diketahui

Pada kasus ketika koefisien model AR(1) yakni struktur autokorelasi p


diketahui, maka penyembuhan autokorelasi dapat dilakukan dengan
transformasi persamaan dikenal sebagai metode Generalized difference
equation. Pada Bab 7 kita telah mengembangkan metode GLS untuk
mengatasi masalah heteroskedastisitas yakni ketika varian residual tidak
konstan. Dengan melakukan transformasi model kita dapat menghilangkan
masalah heteroskedastisitas sehingga kita kemudian dapat mengestimasi
model dengan menggunakan metode OLS.

Untuk menjelaskan metode Generalized difference equation dalam


kasus adanya autokorelasi, misalkan kita mempunyai model regresi
sederhana dan residualnya (e1 ) mengikuti pola autoregresif tingkat
pertama AR(1) sebagai berikut 12:

𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 (8.3)

e𝑡 = 𝑝e𝑡−1 + v𝑡 -1< p <1 (8.4)

Dimana residual v𝑡 , memenuhi asumsi residual metode OLS yakni


E(v𝑡 ) = 0=; 𝑣𝑎𝑟(v𝑡 ) = 𝜎 2 dan cov(v𝑡 v𝑡−1 ) = 0

Kita substitusikan persamaan (8.4) ke dalam persamaan (8.3) sehingga


menghasilkan persamaan sebagai berikut:

𝑌𝑡 =β𝑜 + β1 X𝑡 + 𝑝e𝑡−1 +v𝑡 (8.22)

Melakukan Lag pertama dari persamaan (8.3) untuk mendapatkan e𝑡−1


sebagai berikut:

𝑌𝑡−1 =β𝑜 + β1 X𝑡−1 + e𝑡−1

12
ibid

14
e𝑡−1 = 𝑌𝑡−1 − β𝑜 −β1 X𝑡−1 (8.23)

Kemudian kita substitusikan persamaan (8.23) ke dalam persamaan (8.22)


sehingga menghasilkan persamaan sebagai berikut:

𝑌𝑡 =β𝑜 + β1 X𝑡 + 𝑝(𝑌𝑡−1 − β𝑜 −β1 X𝑡−1 ) + v𝑡


𝑌𝑡 − 𝑝𝑌𝑡−1 = β𝑜 (1 − 𝑝) + β1 (X𝑡 − 𝑝𝑋𝑡−1 ) + v𝑡 (8.24)

Persamaan (8.24) tersebut dapat kita tulis menjadi:

𝑌𝑡∗ = β∗𝑜 + β1∗ X𝑡∗ + v𝑡

Dimana 𝑌𝑡∗ = 𝑌𝑡 − 𝑝𝑌𝑡−1 ; β∗𝑜 = β𝑜 (1 − 𝑝); β1∗ = β1∗ X𝑡∗ = (X𝑡 − 𝑝𝑋𝑡−1 )

Residual 𝑣𝑡 , dalam persamaan (8.25) sudah terbebas dari masalah


autokorelasi sehingga memenuhi asumsi OLS. Sekarang kita bisa
mengaplikasikan metode OLS terhadap transformasi variabel 𝑌 ∗ dan 𝑋 ∗
dan mendapatkan estimator yang menghasilkan karakteristik estimator
yang BLUE. Metode ini disebut dengan Generalized Least Squares (GLS).

2) Ketika Struktur Autokorelasi Tidak Diketahui

Walaupun metode penyembuhan masalah autokorelasi sangat mudah


dilakukan dengan metode Generalized Least Squares (GLS) jika
strukturnya diketahui. Namun metode ini dalam prakteknya sangat sulit
dilakukan. Kesulitan ini muncul karena sulitnya kita untuk mengetahui
nital 𝑝. Oleh karena itu kita harus menemukan cara yang paling tepat
untuk mengestimasi 𝑝. Ada beberapa metode yang telah dikembangkan
oleh para ahli ekonometrika untuk mengestimasi nilai 𝑝.13

a) Metode Diferensi Tingkat Pertama

Nilai 𝑝 terletak antara -1 ≤ 𝑝 ≥ 1. Jika nilai 𝑝 = 0 berarti tidak


ada korelasi residual tingkat pertama (AR 1). Namun jika nilal 𝑝 = ±1
maka model mengandung autokorelasi baik positif maupun negatif.
Ketika nilai dari 𝑝 =+1, masalah autokorelasi dapat disembuhkan
13
ibid

15
dengan diferensi tingkat pertama metode generalized difference
equation. Misalkan kita mempunyai model sederhana seperti persamaan
(8.3) sebelumnya, metode diferensi tingkat pertama (first difference)
dapat dijelaskan sebagal berikut 14:

𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 (8.3)

Diferensi tingkat pertama persamaan (8.3) tersebut sebagaimana dalam


persamaan (8.24) sebelumnya sebagai berikut:

𝑌𝑡 − 𝑝𝑌𝑡−1 = β𝑜 (1 − 𝑝)+ β1 (X𝑡 −pX 𝑡−1 ) + (e𝑡 − 𝑝e𝑡−1 ) (8.24)

Jika p = +1 maka persamaan tersebut dapat ditulis kembali menjadi:

𝑌𝑡 − 𝑝𝑌𝑡−1 = β1 (X𝑡 −X𝑡−1 ) + (e𝑡 − e𝑡−1 ) (8.26)

Atau dapat ditulis menjadi persamaan sebagai berikut:

∆𝑌𝑡 = β1 ∆𝑌𝑡 + 𝑣𝑡 (8.27)

Dimana ∆ adalah diferensi dan 𝑣𝑡 = e𝑡 − e𝑡−1

Residual 𝑣𝑡 , dari persamaan (8.27) tersebut sekarang terbebas


dari masalah autokorelasi. Metode first difference ini bisa diaplikasikan
jika koefisien autokorelasi cukup tinggi atau jika nilai statistik Durbin-
Watson (𝑑) sangat rendah. Sebagai rule of thumb jika 𝑅 ² > 𝑑. maka
kita bisa menggunakan metode first difference. Dari transformasi first
difference ini sekarang kita tidak lagi mempunyai intersep atau
konstanta dalam model. Konstanta dalam model dapat dicari dengan
memasukkan variabel trend (𝑇) di dalam model aslinya. Misalkan
model awalnya dengan trend sebagai berikut:

𝑌𝑡 =β𝑜 + β1 X𝑡 + β2 𝑇 + e𝑡 (8.28)

Di mana 𝑇 adalah tren, nilainya mulai satu pada awal periode dan terus
menaik sampai akhir periode. Variabel residual e𝑡 , dalam persamaan

14
ibid

16
(8.28) tersebut mengikuti autoregresif tingkat pertama. Transformasi
persamaan (8.28) dengan metode first difference akan menghasilkan
persamaan sebagai berikut:

∆𝑌𝑡 = β1 ∆𝑋𝑡 + β2 + 𝑣𝑡 (8.29)

dimana 𝑣𝑡 = e𝑡 − e𝑡−1

Pada proses diferensi tingkat pertama persamaan (8.28)


menghasilkan persamaan (8.29) yang mempunyai konstanta sedangkan
diferensi pertama pada persamaan (8.3) tanpa menghasilkan konstanta.

b) Estimasi p Didasarkan pada Berenblutt-Webb

Metode transformasi dengan first difference bisa digunakan hanya


jika nilai 𝑝 tinggi atau jika nilai 𝑑 rendah. Dengan kata lain metode ini
hanya akan valid jika nilai 𝑝 = +1 yaitu jika terjadi autokorelasi positif
yang sempurna15. Pertanyaannya bagaimana kita bisa mengetahui
asumsi bahwa 𝑝 = +1. Berenblutt-Webb telah mengembangkan uji
statistik untuk menguji hipotesis bahwa p+1. Uji statistik dari
Berenblutt-Webb ini dikenal dengan uji statistik g. Rumus statistiknya
dapat ditulis sebagai berikut:

∑𝑛 𝑣 2
𝑔 = ∑2𝑛 𝑒𝑡2 (8.33)
1 𝑡

Dimana e𝑡 , adalah residual dari regresi model asli dan v𝑡


merupakan residual dari regresi model first difference. Dalam menguji
signifikansi statistik 𝑔 diasumsikan model asli mempunyai konstanta.
Kemudian kita menggunakan tabel Durbin-Watson dengan hipotesis nol
𝑝 = 1, tidak lagi dengan hipotesis nol 𝑝 = 0. Keputusan bahwa 𝑝 =1
ditentukan dengan membandingkan nilai hitung g dengan nilai kritis
statistik 𝑑. Jika 𝑔 di bawah nilai batas minimal d𝐿 , maka tidak gagal

15
ibid

17
menolak hipotesis nol hingga kita bisa mengatakan bahwa 𝑝 = 1 atau
ada korelasi positif antara residual.

Contoh Uji Berenblutt-Webb

Kita kembali ke model sederhana permintaan impor pada contoh


8.5. Dari regresi persamaan kita mendapatkan SSR sebesar 3,74 x 108
sedangkan hasil regresi diferensi tingkat pertama tanpa konstanta
menghasilkan SSR sebesar 2,47𝑥108 . Dengan demikian nial statistik g
dapat dihitung sebagai berikut:

2,47𝑥108
𝑔 = 3,74 x 108 = 0,7326 (8.34)

Nilai kritis statistik Durbin-Watson dengan jumlah observasi 𝑛 =


22 dan 𝑘 = 1 dengan α = 1%, masing-masing adalah d𝐿 = 0,997 dan d𝑈
= 1,174, sedangkan untuk α = 5%, sebesar d𝐿 = 1,239 dan d𝑈 = 1,429.
Nilai statistik 𝑔 lebih kecil dari nilai kritis d𝐿 , pada α = 5% sehingga
kita gagal menolak hipotesis nol. Kesimpulannya penyembuhan
masalah autokorelasi dengan metode first difference adalah tepat karena
nilai 𝑝 = +1 berdasarkan uji yang dikembangkan oleh Berenblutt-
Webb ini.

c) Estimasi p Didasarkan Pada Statistik d Durbin Watson

Kita hanya bisa mengaplikasikan metode transformasi first


difference jika nilai 𝑝 tinggi yakni mendekati satu. Metode ini tidak
bisa digunakan ketika 𝑝 rendah. Untuk kasus nilai 𝑝 rendah maka kita
bisa menggunakan statistik 𝑑 dari Durbin Watson seperti di dalam
persamaan (8.12). Kita bisa mengestimasi 𝑝 dengan cara sebagai
berikut16:

d ≈ 2(1 − ṕ) (8.12)

atau dapat dinyatakan dalam persamaan sebagai berikut:

16
ibid

18
𝑑
ṕ≈1−2

Sebagaimana pembahasan sebelumnya, kita bisa mencari nilai 𝑝


dari estimasi statistik pada persamaan (8.35) di atas. Asumsi first
difference menyatakan bahwa ṕ = 11 hariya terjadi jika 𝑑 = 0 di dalam
persamaan (8.35). Begitu pula jika 𝑑 = 2 maka ṕ = 0 dan bila 𝑑 = 4
maka ṕ =-1. Persamaan tersebut hanya suatu pendekatan tetapi kita bisa
menggunakan nila statistik 𝑑 untuk mendapatkan nilai 𝑝. Di dalam
sampel besar kita dapat mengestimasi 𝑝 dari persamaan (8.35) dan
menggunakan p yang kita dapatkan untuk model generalized difference
equation dalam persamaan (8.24) sebelumnya.\

Contoh Estimasi 𝒑 dari statistik 𝒅 Durbin Watson

Dari contoh 8.5 tentang permintaan impor kita dapatkan nilai d =


0,7543. Nilai (1 0,7543/2) = 0,6628. Setelah kita dapatkan nilai maka
selanjutnya kita bisa mengestimasi generalized difference equation pada
persamaan (8.24) dengan metode OLS. Hasil estimasinya dapat dilihat
dalam Persamaan (8.36) berikut ini: 17

𝑝𝑡∗ = −3734,769 + 0,1129𝑋𝑡∗

t (-1,5323) (5,3645) (8.36)

𝑅2 = 0,5899 𝑑 = 1,4918

Hasil estimasi generalized difference equation sekarang


menghasilkan 𝑑 = 1,4918 sedangkan nilai tabel statistik Durbin watson
pada 𝛼 = 5% dengan 𝑛 = 22 dan 𝑘 = 1 besarnya d𝐿 = 1,239 dan d𝑈 =
1,429. Kesimpulannya model tidak lagi mengandung masalah
autokorelasi.

d) Estimasi 𝑝 dengan Metode Dua Langkah Durbin

17
ibid

19
Untuk menjelaskan metode ini maka kita kembali ke model
generalized difference equation persamaan (8.24). Kita tulis kembali
persamaan tersebut sebagai berikut:

𝑌𝑡 − 𝑝𝑌𝑡−1 = β𝑜 (1 − 𝑝)+ β1 (X𝑡 −pX𝑡−1 ) + (e𝑡 − 𝑝e𝑡−1 ) (8.24)

Atau dapat kita tulis kembali menjadi:

𝑌𝑡 = β𝑜 (1 − 𝑝)+ β1 (X 𝑡 −pX𝑡−1 ) + 𝑝𝑌𝑡−1 + 𝑋𝑡 (8.37)

Dimana 𝑋𝑡 = e𝑡 − e𝑡−1

Setelah mendapatkan persamaan (8.37), Durbin menyarankan untuk


menggunakan prosedur dua langkah untuk mengestimasi 𝑝 yaitu18:

1) Lakukan regresi dalam persamaan (8.37) dan kemudian perlakukan


nilai koefisien 𝑌𝑡−1 yaitu ṕ sebagai nilai estimasi dari 𝑝. Walaupun
ini bias, tetapi merupakan estimasi p yang konsisten.
2) Setelah mencapai pada langkah pertama, kemudian lakukan
transformasi variabel 𝑌𝑡∗ = 𝑌𝑡 − 𝑝𝑌𝑡−1 dan 𝑋𝑡∗ = (𝑋𝑡 − 𝑝𝑋𝑡−1 )dan
kemudian lakukan regresi metode OLS pada transformasi variabel
persamaan (8.24.)

Contoh Metode Dua Langkah Durbin

Permintaan Impor

Regresi permintaan impor pada contoh 8.1 sebelumnya terletak di


daerah keragu-raguan. Kita akan mencoba menghilangkan unsur
autokorelasi dengan metode dua langkah dari Durbin. Kita
mengestimasi persamaan (8.38) untuk mencari nilai estimasi p sebagai
berikut:

𝑌𝑡 = β𝑜 (1 − ṕ)+ β1 (X𝑡 −ṕX1𝑡−1 ) + β2 (X𝑡 −ṕX2𝑡−1 ) + 𝑝𝑌𝑡−1 + 𝑣𝑡 (8.38)

18
ibid

20
Nilai koefisien ṕ pada variabel 𝑌𝑡−1 merupakan nilai estimasi 𝑝.
Hasil estimasi menunjukkan bahwa ṕ = 0,5257. Hasil estimasi
Generalized difference equation dapat dilihat dalam persamaan (8.39).
Nilal statistik hitung 𝑑 = 1,6468, sedangkan nilai kritis 𝑑 pada 𝛼 = 5%
dengan 𝑛 = 22 dan 𝑘 =1 besarnya d𝐿 = 1,147 dan d𝑈 = 1,541. Karena
nilai d terletak antara d𝑈 dan 4 − d𝑈 maka dapat disimpulkan bahwa
sudah tidak ada autokorelasi di dalam model tersebut.

𝑝𝑡∗ = −4364,756 − 62,89617𝑋1𝑡


∗ ∗
+ 0,1515𝑋2𝑡 (8.39)

t (-1,8290) (-1,9304) (5,3216)

R²=0,8437 d= 1,6468

Dimana:
∗ ∗
𝑌𝑡∗ = [𝑌𝑡 − (0,5357)𝑌𝑡−1 ]𝑋1𝑡 = [𝑋1𝑡 − (0,5357)𝑋1𝑡−1 ]𝑋2𝑡 = [𝑋2𝑡 − (0,5357)𝑋2𝑡−1 ]

e) Estimasi p dengan Metode Cochrane-Orcutt

Uji ini merupakan uji alternatif untuk memperoleh nilai 𝑝 yang


tidak diketahui. Metode Cochrane-Orcutt sebagaimana metode yang
lain menggunakan nilai estimasi residual 𝑒𝑡 , untuk memperoleh
informasi tentang nilai 𝑝 . Untuk menjelaskan metode ini kita misalkan
mempunyai model regresi sederhana sebagai berikut19:

𝑌𝑡 = β𝑜 + β1 X𝑡 + e𝑡 (8.40)

Diasumsikan bahwa residual e, mengikuti pola autoregresif (AR1)


sebagai berikut:

e𝑡 = pe𝑡−1 + v𝑡 (8.41)

Dimana residual v𝑡 memenuhi asumsi residual metode OLS


yakni E(v𝑡 ) = 0; 𝑣𝑎𝑟(v𝑡 ) = 𝜎 2 dan cov(v𝑡, v𝑡−1 ) = 0

19
ibid

21
Metode yang kita bicarakan sebelumnya untuk mengetimasi 𝑝
hanya merupakan estimasi tunggal terhadap 𝑝. Oleh karena itu,
Cochrane-Orcutt merekomendasi untuk mengestimasi 𝑝 dengan
regresi yang bersifat iterasi sampai mendapatkan nilai 𝑝 yang
menjamin tidak terdapat masalah autokorelasi dalam model. Adapun
metode literasi dari Cochrane-Orcutt dapat dijelaskan sebagai berikut:

1) Estimasi persamaan (8.40) dan kita dapatkan nilai residualnya é𝑡


2) Dengan residual yang kita dapatkan maka lakukan regresi
persamaan berikut ini:
é𝑡 = ṕé𝑡−1 + v𝑡 (8.42)
3) Dengan ṕ yang kita dapatkan pada langkah kedua dari ersamaan
(8.42) kemudian kita regresi persamaan berikut ini:
Y𝑡 − ṕY𝑡−1 = β𝑜 (1 − ṕ) + β1 (X𝑡 − ṕX𝑡−1 ) + (e𝑡 − ṕé𝑡−1 ) (8.43)
atau dapat ditulis dalam bentuk yang lebih sederhana menjadi
persamaan:
𝑌𝑡∗ = β∗𝑜 + β1∗ X𝑡∗ +e∗𝑡 (8.44)
dimana: β∗𝑜 = β𝑜 (1 − ṕ)
4) Karena kita tidak mengetahui apakah nilai ṕ yang diperoleh dari
persamaan (8.42) adalah nilai estimasi yang terbaik, maka masukan
nilai β∗𝑜 = β𝑜 (1 − ṕ) dan β1∗ yang diperoleh dalam persamaan
(8.44) ke dalam persamaan awal (8.40) dan kemudian dapatkan
residualnya é𝑡∗∗ sebagai berikut:
é𝑡∗∗ = Y𝑡 − β∗𝑜 + β1∗ X𝑡∗ (8.45)
5) Kemudian estimasi regresi sebagai berikut:
é𝑡∗∗ = ṕé∗∗
𝑡 +𝑤 (8.46)
ṕ yang kita peroleh dari persamaan (8.46) ini merupakan langkah
kedua mengestimasi nilai 𝑝

Karena kita tidak juga mengetahui apakah langkah kedua ini


mampu mengestimasi nilai 𝑝 yang terbaik maka kita dapat
melanjutkan pada langkah ketiga dan seterusnya. Pertanyaannya,

22
sampai berapa langkah kita harus berhenti melakukan proses iteratif
untuk mendapatkan nilai 𝑝. Menurut Cochrane-Orcutt, estimasi nilai 𝑝
akan kita hentikan jika nilainya sudah terlalu kecil..20

Contoh Metode Cochrane-Orcutt Permintaan Impor

Berdasarkan uji Durbin-Watson maupun LM, regresi


permintaan impor mengandung masalah autokorelasi. Estimasi model
AR (1) pada persamaan (8.42) menghasilkan nilai 𝑝 sebesar 0,304191.
Hasil estimasi Generalized difference equation dapat dilihat dalam
persamaan (8.47). Nilai statistik hitung 𝑑 = 1,6468 sedangkan nilai
kritis 𝑑 pada 𝛼 = 5% dengan 𝑛 = 22 dan 𝑘= 2 besarnya 𝑑𝐿 =1,147 dan
𝑑𝑈 = 1,541. Karena nilai d terletak antara 𝑑𝑈 dan 4 − 𝑑𝑈 maka dapat
disimpulkan bahwa sudah tidak ada autokorelasi di dalam model
tersebut.

𝑝𝑡∗ = −6631,454 − 76,1328𝑋1𝑡


∗ ∗
+ 0,1606𝑋2𝑡 (8.47)

t (-2,6379) (-2,8289) (6,8335)

R²=0,8437 d=1,6468

Dimana:

𝑌𝑡∗ = [𝑌𝑡 − (0,3042)𝑌𝑡−1 ]𝑋1𝑡


∗ ∗
= [𝑋1𝑡 − (0,3042)𝑋1𝑡−1 ]𝑋2𝑡
= [𝑋2𝑡 − (0,3042)𝑋2𝑡−1 ]

f) Metode Newey, Whitney dan Kenneth

Penyembuhan masalah autokorelasi pada subbat sebelumnya


terfokus pada manipulasi persamaan sehingga bias terbebas dari
masalah autokorelasi. Sebagaimana kasus heteroskedastisitas, para ahli
ekonometrika juga telah mencoba mengembangkan metode standard
error yang konsisten bila terjadi masalah autokorelasi. 21 White telah

20
ibid
21
ibid

23
mengembangkan metode standard error yang konsisten bila terdapat
masalah heteroskedatisitas yang dikenal dengan Hoteroscadasticity-
Consistent Covariance Matrix Estimator (HCCME). Namun, HCCME
didasarkan pada asumsi bahwa variabel gangguan 𝑒𝑡 tidak saling
berhubungan atau tidak ada serial korelasinya. Metode selanjutnya yang
dikembangkan oleh Newey, Whitney dan Kennneth memasukkan
masalah unsur baik heteroskedastisitas maupun masalah autokorelasi.

Standard error yang konsisten bila ada unsur baik


heteroskedastisitas maupun autokorelasi ini dikenal dengan
Heteroskedasticity and Autocorrelation Consistent Covariance Matinx
(HAC). Formula penurunan HAC ini tidak sesederhana seperti HCCME
sebelumnya. Namun sekarang sudah banyak program komputer seperti
EVIEWS menyediakan perhitungan HAC.

Contoh Penyembuhan Autokorelasi Metode Newey,

Whitney dan Kenneth (HAC)

Model regresi permintaan impor pada contoh 8.5 sebelumnya


mengandung masalah autokorelasi sehingga memerlukan penyembuhan
masalah autokorelasi. Sekarang kita akan mencoba menyembuhkan
masalah autokorelasi dengan mencari standard error yang konsisten bila
terjadi autokorelasi dengan menggunakan software EVIEWS. Hasil
estimasi dengan EVIEWS ditampilkan Tabel 8.4-8.5. Pada Tabel 8.4
menyajikan hasil regresi dengan menggunakan metode OLS dengan
adanya autokorelasi. Sedangkan pada Tabel 8.5. menyajikan standard
error yang konsisten dari Newey Whitney dan Kenneth. Sama seperti
pada kasus heteroskedastisitas, kita sekarang mempunyai standard error
yang konsisten sehingga kita bisa melakukan evaluasi uji t maupun F
meskipun ada masalah autokorelasi.

Tabel 8.4 Metode OLS

24
Dependen Variable: Y
Method: Least Squares
Variable Coefficient Std. Error t-Statistic Prob.
C -5979.537 2888.855 -2.069864 0.0510
X 0.099144 0.009237 10.73374 0.0000
R-squared 0.845830
Adjusted R- 0.838488 Mean dependent var 23557.04
squared 4217.460 S.D. dependent var 10494.20
S.E. of 3.74E+08 Akaike info criterion 19.61479
regression -223.5710 Schwarz criterion 19.71353
Sum squared 115.2132 Hannan-Quinn criter 19.63963
resid 0.000000 Durbin-Watson stat 0.754258
Log likelihood
F-statistic
Prob (F-statistic
)

Tabel 8.5.Metode Newey, Whitney dan Kenneth (HAC)


Dependen Variable: Y
Method: Least Squares
Newey-West HAC Standard Errors & Covariance (lag truncation=2)
Variable Coefficient Std. Error t-Statistic Prob.
C -5979.537 3941.193 -1.517189 0.1441
X 0.099144 0.013527 7.329099 0.0000
R-squared 0.845830
Adjusted R- 0.838488 Mean dependent var 23557.04
squared 4217.460 S.D. dependent var 10494.20
S.E. of regression 3.74E+08 Akaike info criterion 19.61479
Sum squared -223.5710 Schwarz criterion 19.71353
resid 115.2132 Hannan-Quinn criter 19.63963
Log likelihood 0.000000 Durbin-Watson stat 0.754258
F-statistic
Prob (F-statistic )

25
BAB III
PENUTUP

A. Kesimpulan
Autokorelasi atau juga sering disebut korelasi serial merupakan korelasi
diantara error pengamatan menurut urutan waktu yang lebih sering/dominan
terjadi pada data deret waktu (time series). Autokorelasi mengakibatkan
penduga metode kuadrat terkecil tidak lagi mempunyai varian minimum,
namun tetap merupakan penduga yang linier dan tak bias. Pendeteksian
keberadaan autokorelasi dapat dilakukan dengan menggunakan metode
Durbin-Watson (DW) dan metode Breusch-Godfrey.

26
Penyembuhan masalah autokorelasi sangat tergantung pada dua hal yaitu
jika ρ diketahui dan jika ρ tidak diketahui tetapi tetap dapat dicari melalui
estimasi metode diferensi tingkat pertama, estimasi ρ didasarkan pada
Berenblutt-Webb, estimasi ρ didasarkan pada statistic d Durbin-Watson,
estimasi ρ dengan metode dua langkah Durbin, estimasi ρ dengan metode
Cochrane-Orcutt, dan yang terakhir dengan metode Newey, Whitney dan
Kenneth.

DAFTAR PUSTAKA

Astuti, An Ras Try. 2019. Manajemen Organisasi (Teori dan Kasus). Parepare:
Nusantara Press.
Tinungki, Georgina. 2016. “Metode Pendeteksian Autokorelasi Murni dan
Autokorelasi Tidak Murni”. Jurnal Matematika, Statistika, dan
Komputasi, (Online), 13 (1): 47-51, (https://core.ac.uk), diakses 31
Agustus 2021.
Widarjono, Agus. 2018. Ekonometrika Pengantar dan Apliksinya Disertai
Panduan EViews. Yogyakarta: UPP STIM YKPN.

27

Anda mungkin juga menyukai