AUTOKORELASI
Tugas Mata Kuliah
"EKONOMETRIKA"
Dosen Pengampu :
Ana M. Maghfiroh, M. Pd.
Disusun oleh :
Kelompok 7
1. Bagus Prima Handika (12403193059)
2. Laelatul Naromi (12403193082)
3. Wafieq Alfira N. Z (12403193086)
Puji syukur kami panjatkan kehadirat Tuhan Yang Maha Esa atas segala
rahmat, karunia, serta taufik dan hidayah-Nya sehingga makalah ini dapat
terselesaikan. Shalawat dan salam semoga senantiasa abadi tercurahkan kepada
Nabi Muhammad SAW. dan umatnya. Sehubung dengan selesainya Makalah
tentang "Ekonometrika (Autokorelasi)" ini maka kami mengucapkan terima kasih
kepada:
1. Bapak Dr. Maftukhin, M.Ag. selaku Rektor Universitas Islam Negeri Sayyid
Ali Rahmatullah Tulungagung.
2. Bapak Prof. H. Imam Fu’adi, M.Ag. selaku Wakil Rektor bidang Akademik
dan Pengembangan Lembaga Universitas Islam Negeri Sayyid Ali
Rahmatullah Tulungagung.
3. Bapak Dr. H. Dede Nurohman, M.Ag. selaku Dekan Fakultas Ekononomi dan
Bisnis Islam Universitas Islam Negeri Sayyid Ali Rahmatullah Tulungagung.
4. Bapak Dr. Mashudi, M.PdI. selaku Ketua Jurusan Akuntansi Syariah
Universitas Islam Negeri Sayyid Ali Rahmatullah Tulungagung.
5. Ibu Ana M. Maghfiroh, M. Pd., selaku dosen mata kuliah KEkonometrika
Universitas Islam Negeri Sayyid Ali Rahmatullah Tulungagung.
6. Semua pihak yang telah membantu terselesaikannya makalah ini.
Oleh sebab itu, kami berharap adanya kritik, saran dan usulan demi
perbaikan yang telah kami buat di masa yang akan datang, mengingat tidak ada
sesuatu yang sempurna tanpa saran yang membangun. Akhir kata, mohon maaf
apabila terdapat banyak kesalahan dalam makalah ini. Semoga makalah ini
bermanfaat dan mendapat ridha Allah SWT.
ii
DAFTAR ISI
iii
BAB I
PENDAHULUAN
A. Latar Belakang
Statistika banyak digunakan dalam memecahkan masalah kehidupan
sehari-hari, baik dalam bidang ekonomi, kedokteran, kesehatan,
kependudukan, psikologi, sosial, maupun bidang-bidang yang lain.
terdapat banyak metode dalam statistika, di antaranya adalah analisis
regresi. Analisis regresi merupakan analisis statistika yang dilakukan
untuk memodelkan hubungan antara variable dependen dan variable
independen.
Terdapat dua jenis regresi yaitu regresi linear dan regresi nonlinear.
Regresi linear menyatakan bentuk hubungan di mana variable dependen
dan variable independen berpangkat satu. Regresi linear dibedakan
menjadi dua yaitu regresi linear sederhana dan regresi linear
berganda.Apabila terdapat hubungan linear variable dependen dengan satu
variable independen disebut regresi linear sederhana, sedangkan hubungan
variable antara variable dependen dengan dua atau lebih variable
independen disebut sebagai regresi linear berganda. Analisis regresi linear
berganda lebih sering digunakan karena suatu peristiwa dapat disebabkan
oleh berbagai factor yang memengaruhi, seperti harga suatu barang
dipengaruhi oleh bahan baku, bahan tambahan, biaya pengolahan, biaya
transportasi, dan lain-lain.
Asumsi-asumsi yang harus dipenuhi pada analisis regresi klasik yaitu
memenuhi asumsi linearitas, tidak terjadi autokorelasi dengan melihat nilai
Durbin Watson, jika d < dL, maka ada autokorelasi positif, sedangkan jika
4 – d < dL, maka ada autokorelasi negative, tidak terjadi multikolinearitas,
memenuhi normalitas, dan tidak terjadi hesteroskedastisitas.
Salah satu asumsi analisis regresi linear berganda yaitu tidak terdapat
autokorelasi. Apabila terjadi autokorelasi, estimasi metode kuadrat terkecil
memiliki varians yang tidak minimum, sehingga uji statistic tidak dapat
digunakan untuk menarik kesimpulan.
1
B. Rumusan Masalah
1. Apakah pengertian dan makna dari autokorelasi?
2. Apa sifat dan konsekuensi dari autokorelasi?
3. Apa yang dimaksud dengan deteksi masalah autokorelasi?
4. Bagaimana cara penyembuhan autokorelasi?
C. Tujuan
1. Untuk mengetahui pengertian dan makna dari autokorelasi.
2. Untuk mengetahui sifat dan konsekuensi dari autokorelasi.
3. Untuk mengetahui maksud dari deteksi masalah autokorelasi.
4. Untuk mengetahui bagaimana cara penyembuhan autokorelasi.
BAB II
PEMBAHASAN
1
Agus Widarjono, Ekonometrika Pengantar dan Aplikasinya Disertai Panduan EViews,
(Yogyakarta: UPP STIM YKPN, 2018), hlm. 137
2
Gambar 8.1 (a) Autokorelasi Positif
2) Autokorelasi Negatif
3
adanya hubungan antara variable gangguan satu dengan variable gangguan
yang lain. 2 Tidak adanya serial korelasi antara variable gangguan ini
sebelumya dinyatakan sebagai berikut :
E ( ei , ej ) = 0 i≠j (8.1)
Asumsi yang dapat digunakan untuk mengapa terjadinya autokorelasi
adalah misalkan kita menganalisis data runtut waktu output nasional atau
GDP tahunan. Jika suatu ketika ada gejolak ekonomi (shock) maka gejolak ini
akan berpengaruh terhadap GDP pada saat ini dan juga ada periode-periode
berikutnya. Begitu pula ketika pemerintah mengeluarkan kebijakan fiskal
maupun moneter untuk mengatasi penurunan GDP tersebut. Setiap kebijakan
ekonomi pasti akan memerlukan periode waktu untuk mempengaruhi system
ekonomi sehingga akhirnya mempengaruhi kenaikan GDP. Dalam kondisi
seperti ini maka jika kita menganalisis data runtut waktu maka variable
gangguan antara waktu akan saling berhubungan. Oleh karena itu, data runtut
waktu diduga sering kali mengandung unsur autokorelasi. Sedangkan data
cross section diduga jarang ditemui adanya unsur autokorelasi. Adanya
korelasi antar variable gangguan ini dengan demikian dapat kita nyatakan
sebagai berikut :
E ( ei , e j ) ≠ 0 i≠j (8.2)
Yt = β0 + β1Xt + et (8.3)
2
Agus Widarjono, Ekonometrika Pengantar dan Aplikasinya Disertai Panduan EViews,
(Yogyakarta: UPP STIM YKPN, 2018), hlm. 137-140.
4
Yaitu nilai harapan dari variable gangguan adalah nol, varian dari
variable gangguan adalah tetap dan tidak ada korelasi antara variable
gangguan satu periode waktu dengan variable gangguan perode waktu lain.
Namun sekarang kita akan mencoba membahas apa yang terjadi terhadap
estimator β1 jika variable gangguan saling berhubungan.
𝛴𝑋𝑖 𝑌𝑖
̂β= 𝛴𝑋𝑖 2
(8.5)
𝜎2
var = ( ̂ β) = 𝛴𝑋𝑖 2 (8.6)
3
ibid
5
Namun, bila terdapat autokorelasi pada tingkat autoregresif pertama
(AR1) maka varian estimator ( ̂ β ) adalah sebagai berikut :
4
ibid
6
Jika ρ = 0 maka et = vt sehingga variable gangguan dalam persamaan
tersebut tidak saling berhubungan atau tidak ada autokorelasi. Oleh karena
itu, hipotesis nol tidak adanya autokorelasi dapat ditulis H0 : ρ = 0
sedangkan hipotesis alternatifnya Hα : ρ < 0 atau Hα : ρ ≠ 0. Karena
sebagian besar dari data time series menunjukkan adanya autokorelasi
positif maka Hα : ρ > 0.
Untuk menguji hipotesis nol maka harus menghitung ρ dan
kemudian menguji secara statistika apakah signifikan atau tidak. Sebagai
alternative, Durbin-Watson mengembangkan distribusi probabilitas yang
berbeda. Uji statistic Durbin-Watson tersebut didasarkan dari residual
metode OLS dengan formula 5:
∑𝑡=𝑛
𝑡=2 (𝑒𝑡 −𝑒𝑡−1 )
2
d= ∑𝑡=𝑛 2 (8.8)
𝑡=1 ê𝑡
Karena ∑ ê2𝑡 dan ∑ ê2𝑡−1 berbeda hanya satu observasi, maka nilainya
hampir sama. Persamaan (8.9) dapat ditulis:
d ≈ 1 + 1 – 2ρ = 2 - 2ρ (8.10)
∑ ê𝑡 ê𝑡−1
Di mana ρ = ∑ ê2𝑡
(8.11)
5
ibid
7
ada autokorelasi baik positif maupun negative. Jika ρ = +1, maka nilai d ≈
0, mengindikasikan adanya autokorelasi positif. Oleh karena itu, nilai d
yang semakin mendekati nol menunjukkan semakin besar terjadinya
autokorelasi positif. Jika ρ = -1, nilai d ≈ 4, berarti ada autokorelasi
negative. Dengan demikian nilai d yang semakin besar mendekati 4 maka
semakin besar terjadinya masalah autokorelasi negative.
Tabel 8.1. Uji Statistik Durbin-Watson 𝒅
6
ibid
8
2) Menghitung nilai 𝑑 dari persamaan (8.9) (Kebanyakan program
komputer secara otomatis menghitung nilai 𝑑).
3) Dengan jumlah observasi (𝑛) dan jumlah variabel independen tertentu
tidaktermasuk konstanta (𝑘), kita cari nilai kritis 𝑑𝐿 dan 𝑑𝑈 di statistik
Durbin Watson
4) Keputusan ada tidaknya autokorelasi didasarkan Tabel 8.1
7
ibid
9
AR (2), AR(3) dan seterusnya. Ketiga, model ini juga tidak bisa digunakan
dalam kasus rata-rata bergerak (moving average) dari residual yang lebih
tinggi. Contoh dalam model regresi 𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 maka uji
autokorelasi dengan AR(1) sebagaimana dalam persamaan (8.3) e𝑡 =
𝑝e𝑡−1 + v𝑡 Sedangkan uji autokorelasi dengan metode moving average,
misalnya moving average tiga periode dapat ditulis sebagai berikut
e𝑡 = 𝑣𝑡 + 𝜋1 𝑣𝑡−1 + 𝜋2 𝑣𝑡−2
2) Metode Breusch-Godfrey
Breusch dan Godfrey mengembangkan uji autokorelasi yang lebih
umum dan dikenal dengan uji Lagrange Multiplier (LM)4 . Untuk
memahami uji LM, misalkan kita mempunyai model regresi sederhana
sebagai berikut 8:
𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 (8.17)
𝐻𝑜 : 𝑝1 = P2 = ⋯ = P𝑝 = 0
H𝑎 : p1 ≠ P2 ≠ ⋯ = P𝑝 ≠ 0 (8.19)
8
ibid
10
Jika kita gagal menolak H𝑜 , maka dikatakan tidak ada autokorelasi dalam
model. Adapun prosedur uji dari LM adalah sebagai berikut9:
9
ibid
11
yang dipilih maka kita menolak H𝑜 yang berarti ada masalah
autokorelasi.
10
ibid
12
Tabel Uji Autokorelasi dengan Metode LM
D. Penyembuhan Autokorelasi
Penyembuhan masalah autokorelasi sangat tergantung dari sifat hubungan
antara residual11. Atau dengan kata lain bagaimana bentuk struktur
autokorelasi. Kita tulis kembali model regresi sederhana seperti dalam
persamaan (8.3) sebagai berikut:
𝑌𝑡 =β𝑜 + β1 X 𝑡 + e𝑡 (8.3)
11
ibid
13
Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal: (1)
jika 𝑝 atau koefisien model AR(1) diketahui; (2) jika 𝑝 tidak diketahui tetapi
bisa dicari melalui estimasi.
𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 (8.3)
12
ibid
14
e𝑡−1 = 𝑌𝑡−1 − β𝑜 −β1 X𝑡−1 (8.23)
Dimana 𝑌𝑡∗ = 𝑌𝑡 − 𝑝𝑌𝑡−1 ; β∗𝑜 = β𝑜 (1 − 𝑝); β1∗ = β1∗ X𝑡∗ = (X𝑡 − 𝑝𝑋𝑡−1 )
15
dengan diferensi tingkat pertama metode generalized difference
equation. Misalkan kita mempunyai model sederhana seperti persamaan
(8.3) sebelumnya, metode diferensi tingkat pertama (first difference)
dapat dijelaskan sebagal berikut 14:
𝑌𝑡 =β𝑜 + β1 X𝑡 + e𝑡 (8.3)
𝑌𝑡 =β𝑜 + β1 X𝑡 + β2 𝑇 + e𝑡 (8.28)
Di mana 𝑇 adalah tren, nilainya mulai satu pada awal periode dan terus
menaik sampai akhir periode. Variabel residual e𝑡 , dalam persamaan
14
ibid
16
(8.28) tersebut mengikuti autoregresif tingkat pertama. Transformasi
persamaan (8.28) dengan metode first difference akan menghasilkan
persamaan sebagai berikut:
dimana 𝑣𝑡 = e𝑡 − e𝑡−1
∑𝑛 𝑣 2
𝑔 = ∑2𝑛 𝑒𝑡2 (8.33)
1 𝑡
15
ibid
17
menolak hipotesis nol hingga kita bisa mengatakan bahwa 𝑝 = 1 atau
ada korelasi positif antara residual.
2,47𝑥108
𝑔 = 3,74 x 108 = 0,7326 (8.34)
d ≈ 2(1 − ṕ) (8.12)
16
ibid
18
𝑑
ṕ≈1−2
𝑅2 = 0,5899 𝑑 = 1,4918
17
ibid
19
Untuk menjelaskan metode ini maka kita kembali ke model
generalized difference equation persamaan (8.24). Kita tulis kembali
persamaan tersebut sebagai berikut:
Dimana 𝑋𝑡 = e𝑡 − e𝑡−1
Permintaan Impor
18
ibid
20
Nilai koefisien ṕ pada variabel 𝑌𝑡−1 merupakan nilai estimasi 𝑝.
Hasil estimasi menunjukkan bahwa ṕ = 0,5257. Hasil estimasi
Generalized difference equation dapat dilihat dalam persamaan (8.39).
Nilal statistik hitung 𝑑 = 1,6468, sedangkan nilai kritis 𝑑 pada 𝛼 = 5%
dengan 𝑛 = 22 dan 𝑘 =1 besarnya d𝐿 = 1,147 dan d𝑈 = 1,541. Karena
nilai d terletak antara d𝑈 dan 4 − d𝑈 maka dapat disimpulkan bahwa
sudah tidak ada autokorelasi di dalam model tersebut.
R²=0,8437 d= 1,6468
Dimana:
∗ ∗
𝑌𝑡∗ = [𝑌𝑡 − (0,5357)𝑌𝑡−1 ]𝑋1𝑡 = [𝑋1𝑡 − (0,5357)𝑋1𝑡−1 ]𝑋2𝑡 = [𝑋2𝑡 − (0,5357)𝑋2𝑡−1 ]
𝑌𝑡 = β𝑜 + β1 X𝑡 + e𝑡 (8.40)
e𝑡 = pe𝑡−1 + v𝑡 (8.41)
19
ibid
21
Metode yang kita bicarakan sebelumnya untuk mengetimasi 𝑝
hanya merupakan estimasi tunggal terhadap 𝑝. Oleh karena itu,
Cochrane-Orcutt merekomendasi untuk mengestimasi 𝑝 dengan
regresi yang bersifat iterasi sampai mendapatkan nilai 𝑝 yang
menjamin tidak terdapat masalah autokorelasi dalam model. Adapun
metode literasi dari Cochrane-Orcutt dapat dijelaskan sebagai berikut:
22
sampai berapa langkah kita harus berhenti melakukan proses iteratif
untuk mendapatkan nilai 𝑝. Menurut Cochrane-Orcutt, estimasi nilai 𝑝
akan kita hentikan jika nilainya sudah terlalu kecil..20
R²=0,8437 d=1,6468
Dimana:
20
ibid
21
ibid
23
mengembangkan metode standard error yang konsisten bila terdapat
masalah heteroskedatisitas yang dikenal dengan Hoteroscadasticity-
Consistent Covariance Matrix Estimator (HCCME). Namun, HCCME
didasarkan pada asumsi bahwa variabel gangguan 𝑒𝑡 tidak saling
berhubungan atau tidak ada serial korelasinya. Metode selanjutnya yang
dikembangkan oleh Newey, Whitney dan Kennneth memasukkan
masalah unsur baik heteroskedastisitas maupun masalah autokorelasi.
24
Dependen Variable: Y
Method: Least Squares
Variable Coefficient Std. Error t-Statistic Prob.
C -5979.537 2888.855 -2.069864 0.0510
X 0.099144 0.009237 10.73374 0.0000
R-squared 0.845830
Adjusted R- 0.838488 Mean dependent var 23557.04
squared 4217.460 S.D. dependent var 10494.20
S.E. of 3.74E+08 Akaike info criterion 19.61479
regression -223.5710 Schwarz criterion 19.71353
Sum squared 115.2132 Hannan-Quinn criter 19.63963
resid 0.000000 Durbin-Watson stat 0.754258
Log likelihood
F-statistic
Prob (F-statistic
)
25
BAB III
PENUTUP
A. Kesimpulan
Autokorelasi atau juga sering disebut korelasi serial merupakan korelasi
diantara error pengamatan menurut urutan waktu yang lebih sering/dominan
terjadi pada data deret waktu (time series). Autokorelasi mengakibatkan
penduga metode kuadrat terkecil tidak lagi mempunyai varian minimum,
namun tetap merupakan penduga yang linier dan tak bias. Pendeteksian
keberadaan autokorelasi dapat dilakukan dengan menggunakan metode
Durbin-Watson (DW) dan metode Breusch-Godfrey.
26
Penyembuhan masalah autokorelasi sangat tergantung pada dua hal yaitu
jika ρ diketahui dan jika ρ tidak diketahui tetapi tetap dapat dicari melalui
estimasi metode diferensi tingkat pertama, estimasi ρ didasarkan pada
Berenblutt-Webb, estimasi ρ didasarkan pada statistic d Durbin-Watson,
estimasi ρ dengan metode dua langkah Durbin, estimasi ρ dengan metode
Cochrane-Orcutt, dan yang terakhir dengan metode Newey, Whitney dan
Kenneth.
DAFTAR PUSTAKA
Astuti, An Ras Try. 2019. Manajemen Organisasi (Teori dan Kasus). Parepare:
Nusantara Press.
Tinungki, Georgina. 2016. “Metode Pendeteksian Autokorelasi Murni dan
Autokorelasi Tidak Murni”. Jurnal Matematika, Statistika, dan
Komputasi, (Online), 13 (1): 47-51, (https://core.ac.uk), diakses 31
Agustus 2021.
Widarjono, Agus. 2018. Ekonometrika Pengantar dan Apliksinya Disertai
Panduan EViews. Yogyakarta: UPP STIM YKPN.
27