Anda di halaman 1dari 7

AUTOKORELASI

(Pada Analisis Regresi)

Oleh :

(10835 (11013
Windu Pramana Putra Barus ) Rika Saputri )
(10845 (11019
Isnaini Ardi Saputra ) Maharlesa Putri )
(10851 (11041
Diko Reza Artha ) Ardina Reswari )
(10865 (11043
Khanifi Farikhah 'Aini ) Nindyasari Eka Ristyani )
(10867 (11063
Henna Adilia ) Adhiarsa Rakhman )
(10877 (11105
Gempur Safar ) Hetti Arum Purnawati )
(10907 (11147
Febra Ariani ) Novan Dwi Atmaja )
(10925 (11195
Sri Rahayu Rakhmaningsih ) Dwi Nursanti )
(10941 (11205
Ajeng Sekar Damayanti ) Ayu Ajeng Jayanti )
(10951 (11229
Adipuja Rahmadinata ) Hendra Perdana )
(10955 (11265
Kukuh Ageng Pribowo ) Cholifatul Husna )
(11011
Winarti )
Dosen:
Prof. Dr. Suryo Guritno

PROGRAM STUDI STATISTIKA


JURUSAN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS GADJAH MADA
2009
AUTOKORELASI
(Pada Analisis Regresi)

Tininer mendefinisikan autokorelasi sebagai “korelasi ketinggalan waktu (lag


correlation) suatu deretan tertentu dengan dirinya sendiri, tertinggal oleh sejumlah unit
waktu. Terjadi karena adanya korelasi antara pengganggu periode t dengan kesalahan
penganggu periode t-1.

Autokorelasi adalah hubungan antara residual satu obsservasi dengan residual observasi
lainnya. Biasanya Autokorelasi lebih mudah timbul pada data yang bersifat runtut
waktu. Meskipun demikian tetap dimungkinkan autokorelasi dijumpai pada data yang
bersifat antar objek atau cross section.

Autokorelasi dapat berbentuk autokorelasi positif dan autokorelasi negatif. Dalam


analisis rutut waktu lebih besar kemungkinan terjadi autokorelasi positif.

Autokorelasi terjadi karena beberapa sebab menurut Gujarati 2003 yaitu


a. Data mengandung pergerakan naik turun secara musiman
b. Kekeliruan memanipulasi data
c. Data yang dianalisis tidak bersifat stasioner

Salah satu asumsi dari model regresi linier adalah faktor gangguan dari pengamatan
yang berbeda-beda (Ui,Uj) tidak tergantung (independent).
E[Ui,Uj] = 0 (I tidak sama dengan j)
Cov (UiUj) = E[{Ui-E(Uj)}{Uj-E(Uj)]
=E[UiUj]=E[Ui]E[Uj]
= 0 , untuk i tidak sama dengan j karena E[Ui] = E[Uj] = 0

Secara singkat dapat dilihat matriks varians kovarians sebagai berikut:


∑ε = σ 2

σ2 0 L 0
0 σ L 2
0
∑ε = L L L L
0 0 L σ2

Asumsi ini dikenal dengan asumsi non-autokorelasi. Jika asumsi tersebut dilanggar atau
tidak dipenuhi berarti ada autokorelasi dari variabel-variabel random.
Penyelidikan adanya autokorelasi

Oleh karena “e” merupakan taksiran terhadap nilai-nilai U yang sebenarnya maka
matriks varians-kovarians p adalah :
∑ε = σ 2
φ

φ11 φ12 L φ1n


φ φ22 L φ2 n
∑ ε = σ 2 L21 L L L
φn1 φn1 L φnn
σ2 0 L 0 φ11 φ12 L φ1n
0 σ L 0 φ21 φ22 L φ2 n
2

∑ε = L L L L L L L L
0 0 L σ 2 φn1 φn1 L φnn
σ 2φ11 σ 2φ12 L σ 2φ1n
σ 2φ21 σ 2φ22 L σ 2φ2 n
=
L L L L
σ 2φn1 σ 2φn1 L σ 2φnn

Dari matriks di atas dapat dilihat bahwa elemen-elemen selain diagonal utama tidak
sama dengan nol,sehingga ada autokorelasi.

Salah satu mengidentifikasi adanya autokorelasi adalah dengan uji Durbin Watson
Uji Durbin Watson merupakan salah satu uji yang banyak dipakai untuk mengetahui
ada tidaknya autokorelasi.
Akibat adanya autokorelasi

Jika OLS tetap diterapkan dalam keadaan autokorelasi,maka akan terjadi beberapa
akibat sebagai berikut:
 Penaksir tetap tidak efisien, interval konfidensinya menjadi lebar sehingga
signifikansi kurang kuat

 Akibat adanya autokorelasi akan lebih serius karena :


a. Variansi residual XXX menaksir terlalu rendah (under Estimate) XXX
sebenarnya.
b. Variansi dan kesalahan standard deviasi menaksir OLS akan menaksir variansi
dan kesalahan standard yang terlalu rendah.
c. Pengujian arti t dan F tidak lagi sah sehingga memberikan kesimpulan yang
menyesatkan.
 Memberikan kesimpulan yang menyimpang dari populasi.

Jika data yang kita analisis mengandung autokorelasi maka estimator yang kita
dapatkan memiliki karakteristik berikut :
a. Estimator metode kuadrat terkecil masih linear
b. Estimator metode kuadrat terkecil masih tidak bias
c. Estimator metode kuadrat terkecil tidak mempunyai varian minimum

Dengan demikian, seperti halnya pengaruh heteroskedastisitas, autokorelasi juga akan


menyebabkan estimator hanya bersifat LUE, tidak lagi BLUE.

Cara Mengatasi Autokorelasi

Karena XXX tidak diketahui, cara yang digunakan adalah dengan menggunakan
statistik durbin Watson.
Dari Durbin Watson, yaitu
n

∑ (e − e t t −1 )2
d= t =2
n

∑e
t =1
t
2

d=
∑e t
2
+ ∑ et2−1 − 2 ∑ et et −1
∑e t
2

Karena ∑e t
2
dan ∑e2
t −1 hanya berbeda satu observasi, keduanya kira-kira sama. Jadi,

dengan menetapkan ∑e 2
t −1 = ∑ et , sehingga bisa ditulis
2

φˆ = ∑ t t2−1
ee
∑e e
∑ et
t t −1
d = 2(1 − ) definisikan
∑e t
2

d
Didapatkan d = 2(1 − φˆ) atau φˆ = 1 − .........(*)
2

Berdasarkan (*),maka diperoleh :


 Jika diperoleh nilai statistic Durbin-Watson, d ≈ 0 maka φˆ = 1

 Jika diperoleh nilai statistic Durbin-Watson, d ≈ 2 maka φˆ = 0

 Jika diperoleh nilai statistic Durbin-Watson , d ≈ 4 maka φˆ = −1

Menghilangkan Autokerelasi

Jika data mengandung autokorelasi maka data harus diperbaiki agar model tetap dapat
digunakan. Untuk menghilangkan auto kerelasi harus diketahui dahulu besarnya
koefisien autokorelasi ρ. Untuk menghitung nilai ρ, digunakan uji g atau biasa dikenal
dengan uji berenblutt-Webb. Uji ini menggunakan persamaan :

∑v
n 2
2 t
g= n (5.21)
∑e 1
t
t

Variabel et menggambarkan residual persamaan regresi model awal, sedang vt


merupakan residual dari persamaan regresi yang sudah didiferensi satu kali. Kita susun
Ho : ρ = ( bukan H0 : ρ = 1). Kemudian bandingakn nilai hitung g dengan nilai kritis d.
Jika g < dL, Ho dapat diterima atau dengan kata lain ada korelasi positif diantara
residual.
Setelah ρ diketahui, barulah kita dapat menghilangkan autokorelasi. Beberapa
alternatifmenghilangkan masalah autokorelasi adalah sebagai berikut :
a. Bila struktur autokorelasi (ρ) diketahui.
b. Bila struktur autokorelasi (ρ) tidak diketahui
- Bila ρ tinggi : metode diferensi tingkat pertama
- Bila ρ rendah : metode OLS
- Bila ρ tidakdiketahui : metode Cochrane-Orcutt
Bila struktur autokorelasi (ρ) diketahui. Bila ρ diketahui, masalah dapat diketahui
dengan transformasi terhadap persamaan. Metode ini sering juga disebut generalized
difference equation. Misal kita mempunyai model regresi sederhana berikut, dengan
residual (et) mengikuti pola autoregresif tingkat pertama AR(1), seperti pada persamaan
berikut ini :
Yt = β 0 + β1 X t + et (5.21)
et = ρ et −1 + vt dengan -1 < ρ< 1 (5.22)

Diasumsikan residual vt memenuhi asumsi residual model OLS, yakni E(vt) = 0,


var(vt) = σ 2 dan cov(vt vt-1) = 0. Kemudian apabila persamaan (5.21) didiferensi satu
periode akan menjadi :
Yt −1 = β0 + β1 X t −1 + et 5.23
Lalu kedua sisi persamaan dikalikan dengan ρ, akan menghasilkan persamaan :
ρYt −1 = ρβ0 + ρβ1 X t −1 + ρ et 5.24

Dilanjutkan dengan mengurangi persamaan (5.21) dengan (5.24), akan diperoleh


persamaan berikut :
Yt − ρYt −1 = β 0 − ρβ0 + βt X t + ρβt Xt −1 + et − ρ et
Yt − ρYt −1 = β 0 (1 − ρ ) + βt X t − ρβt X t −1 + vt
Yt − ρYt −1 = β 0 (1 − ρ ) + βt ( X t − ρ Xt −1 ) + vt

Dengan vt = et + ρet −1 dan sudah memnuhi asumsi OLS seperti pada persamaan 5.22.

persamaan 5.25 dapat ditulis menjadi persamaan berikut: Yt = β 0 + βt X t + vt


* * * *

Yt * = (Yt − ρYt −1 ), β 0* = β 0 (1− ρ ), βt* = βt , Xt* = ( Xt − ρ Xt −1 )


Dengan
Residual pada persamaan 5.26 sudah terbebas dari masalah autokorelasi sehingga
memnuhi asumsi OLS. Kita sudah dapat menerapkan metode OLS terhadap
transformasi variabel Y* dan X* dan mendapatkan estimator yang sudah BLUE.

Kelemahan utama metode ini adalah sulit mengetahui nilai ρ. Bila ρ tidak dikethui :
Metode Cochrane-Orcutt(C-O). Metode ini menggunakan nilai estimasi residual et
untuk menghitung ρ. Perhitungan dilakukan dengan cara iterasi sampai diperoleh nilai ρ
yang tidak mengandung masalah autokorelasi.