Anda di halaman 1dari 27

TERJEMAHAN BUKU

APPLIED ECONOMETRIC TIME SERIES 4th Edition

(Walter Enders)

CAKUPAN SUB-BAB:

E. FUNGSI AUTOKORELASI
F. FUNGSI AUTOKORELASI PARSIAL
G. SAMPEL AUTOKORELASI DERET STASIONER
H. BOX-JENKINS MODEL SELECTION
I. SIFAT-SIFAT PERAMALAN (PROPERTIES OF FORECASTS)

5. FUNGSI AUTOKORELASI

Autokovarians dan autokorelasi dari tipe yang ditemukan pada (2.18) menjadi alat yang
berguna dalam Box-Jenkins (1976) untuk mengidentifikasi dan mengestimasi model runtun
waktu (time series). Kita mengilustrasikan dengan mempertimbangkan empat contoh
penting: model AR(1), AR(2), MA(1), dan ARMA(1,1). Untuk model AR(1), 𝑦𝑡 = 𝑎0 +
𝑎1 𝑦𝑡−1 + 𝜀𝑡 , (2.14) menunjukkan

𝜎2
𝛾0 =
[1 − (𝑎1 )2 ]

𝜎 2 (𝑎1 )𝑠
𝛾𝑠 =
[1 − (𝑎1 )2 ]

Untuk membentuk autokorelasi dengan membagi 𝛾𝑠 oleh 𝛾0, kita menemukan bahwa
𝜌0 = 1, 𝜌1 = 𝑎1 , 𝜌2 = (𝑎1 )2 , … , 𝜌𝑠 = (𝑎1 )𝑠 . Untuk proses AR(1), kondisi yang
diperlukan untuk stasioneritas adalah |𝑎1 | < 1. Jadi, plot antar 𝜌𝑠 dengan 𝑠 – yang disebut
fungsi autokorelasi (ACF) atau korelogram – harus konvergen k enol secara geometris jika
deret tersebut stasioner. Jika 𝑎1 positif, konvergensi akan searah, dan jika 𝑎1 negatif,
autokorelasi akan mengikuti jalur osilasi yang diredam di sekitar nol. Dua grafik pertama
pada sisi kiri Gambar 2.2 menunjukkan fungsi autokorelasi secara teoritis untuk masing-
masing 𝑎1 = 0.7 dan 𝑎1 = −0.7.di sini, 𝜌0 tidak ditampilkan karena nilainya merupakan
kesatuan.
Gambar 2.2 Pola Teoritis ACF dan PACF

Fungsi Autokorelasi dari Proses AR(2)

Sekarang pertimbangkan proses AR(2) yang lebih rumit dengan 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝑎2 𝑦𝑡−2 +
𝜀𝑡 . Kita menghilangkan intersep (𝑎0 ) karena tidak memiliki pengaruh pada ACF. Agar
proses orde kedua menjadi stasioner, kita tahu bahwa perlu untuk membatasi akar dari (1 −
𝑎1 𝐿 − 𝑎2 𝐿2 ) untuk berada di luar lingkaran unit. Di Bagian 4, kita menurunkan
autokovarians dari proses ARMA(2,1) dengan menggunakan metode koefisien tak tentu.
Sekarang, kita akan mengilustrasikan teknik alternatif dengan menggunakan persamaan
Yule-Walker. Kalikan persamaan difference kedua dengan 𝑦𝑡−𝑠 untuk 𝑠 = 0, 𝑠 = 1, 𝑠 =
2, … dan ambil bentuk harapannya sehingga terbentuk

𝐸𝑦𝑡 𝑦𝑡 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡 + 𝑎2 𝐸𝑦𝑡−2 𝑦𝑡 + 𝐸𝜀𝑡 𝑦𝑡

𝐸𝑦𝑡 𝑦𝑡−1 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡−1 + 𝑎2 𝐸𝑦𝑡−2 𝑦𝑡−1 + 𝐸𝜀𝑡 𝑦𝑡−1

𝐸𝑦𝑡 𝑦𝑡−2 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡−2 + 𝑎2 𝐸𝑦𝑡−2 𝑦𝑡−2 + 𝐸𝜀𝑡 𝑦𝑡−2

𝐸𝑦𝑡 𝑦𝑡−𝑠 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡−𝑠 + 𝑎2 𝐸𝑦𝑡−2 𝑦𝑡−𝑠 + 𝐸𝜀𝑡 𝑦𝑡−𝑠 (2.24)

Menurut definisi, autokovarian dari deret stationer sedemikianrupa sehingga


𝐸𝑦𝑡 𝑦𝑡−𝑠 = 𝐸𝑦𝑡−𝑠 𝑦𝑡 = 𝐸𝑦𝑡−𝑘 𝑦𝑡−𝑘−𝑠 = 𝛾𝑠 . Kita juga dapat mengetahui bahwa 𝐸𝜀𝑡 𝑦𝑡 = 𝜎 2
dan 𝐸𝜀𝑡 𝑦𝑡−𝑠 = 0. Oleh karena itu, kia dapat menggunakan persamaan (2.24) untuk
membentuk

𝛾0 = 𝑎1 𝛾1 + 𝑎2 𝛾2 + 𝜎 2 (2.25)

𝛾1 = 𝑎1 𝛾0 + 𝑎2 𝛾1 (2.26)

𝛾𝑠 = 𝑎1 𝛾𝑠−1 + 𝑎2 𝛾𝑠−2 (2.27)

Membagi (2.26) dan (2.27) dengan 𝛾0, hasilnya

𝜌1 = 𝑎1 𝜌0 + 𝑎2 𝜌1 (2.28)

𝜌𝑠 = 𝑎1 𝜌𝑠−1 + 𝑎2 𝜌𝑠−2 (2.29)


𝑎
Kita tahu bahwa 𝜌0 = 1, maka dari (2.28), 𝜌1 = (1−𝑎1 ). Karena itu, kita dapat
2

menemukan seluruh 𝜌𝑠 untuk 𝑠 ≥ 2 dengan menyelesaikan persamaan (2.29). sebagai


contoh, untuk 𝑠 = 2 dan 𝑠 = 3,

(𝑎1 )2
𝜌2 = + 𝑎2
(1 − 𝑎2 )

(𝑎1 )2 𝑎2 𝑎1
𝜌3 = 𝑎1 [ + 𝑎2 ] +
(1 − 𝑎2 ) (1 − 𝑎2 )
𝜌2 = (𝑎1 )2 /(1 − 𝑎2 ) + 𝑎2

𝜌3 = 𝑎1 [(𝑎1 )2 /(1 − 𝑎2 ) + 𝑎2 ] + 𝑎2 𝑎1 /(1 − 𝑎2 )

Meskipun nilai dari 𝜌𝑠 sulit untuk diturunkan, kita dapat dengan mudah
mengkarakterisasi sifatnya. Mengingat solusi untuk 𝜌0 dan 𝜌1 , poin kunci yang perlu dicatat
adalah 𝜌𝑠 semua memenuhi persamaan perbedaan (2.29). Seperti dalam kasus persamaan
perbedaan orde kedua, solusinya mungkin berosilasi atau langsung. Perhatikan bahwa
kondisi stasioneritas untuk 𝑦𝑡 mengharuskan akar (roots) karakteristik (2.29) terletak di
dalam lingkaran unit. Oleh karena itu, barisan {𝜌𝑠 } harus konvergen. Korelogram untuk
proses AR(2) harus sedemikian rupa sehingga 𝜌0 = 1 dan 𝜌1 ditentukan oleh (2.28). Kedua
nilai ini dapat dilihat sebagai nilai awal untuk persamaan beda orde kedua (2.29).

Panel keempat di sisi kiri dari Gambar 2.2 menunjukkan ACF untuk proses 𝑦𝑡 =
0.7𝑦𝑡−1 − 0.49𝑦𝑡−2 + 𝜀𝑡 . Sifat dari berbagai 𝜌𝑠 langsung mengikuti persamaan homogen
𝑦𝑡 − 0.7𝑦𝑡−1 + 0.49𝑦𝑡−2 = 0. Akar (roots) diperoleh dari solusi untuk

𝛼 = {0.7 ± [(−0.7)2 − 4(0.49)]1/2 }/2

Karena diskriminan 𝑑 = (−0.7)2 − 4(0.49) negatif, akar karakteristiknya bersifat


imajiner sehingga solusinya berosilasi. Namun, karena 𝑎2 = −0.49, solusinya konvergen
dan barisan {𝑦𝑡 } stasioner.

Akhirnya, kita mungkin ingin menemukan autokovarians daripada autokorelasi.


Karena kita mengetahui semua autokorelasi, jika kita dapat menemukan varians dari 𝑦𝑡
(yaitu, 𝛾0), kita dapat menemukan semua 𝛾𝑠 lainnya. Untuk mencari 𝛾0, gunakan (2.25) dan
perhatikan bahwa 𝜌𝑖 = 𝛾𝑖 /𝛾0 sehingga

𝛾0 (1 − 𝑎1 𝜌1 − 𝑎2 𝜌2 ) = 𝜎 2

Substitusi untuk 𝜌1 dan 𝜌2 menghasilkan

𝜎2
𝛾0 = 𝑣𝑎𝑟(𝑦𝑡 ) = [(1 − 𝑎2 )/(1 + 𝑎2 )] ( )
(𝑎1 + 𝑎2 − 1)(𝑎2 − 𝑎1 − 1)

Fungsi Autokorelasi dari Proses MA(1)

Selanjutnya perhatikan proses MA(1) 𝑦𝑡 = 𝜀𝑡 + 𝛽𝜀𝑡−1 . Sekali lagi, kita dapat memperoleh
persamaan Yule-Walker dengan mengalikan 𝑦𝑡 dengan setiap 𝑦𝑡−𝑠 dan menghitung
ekspektasi

𝛾0 = 𝑣𝑎𝑟(𝑦𝑡 ) = 𝐸𝑦𝑡 𝑦𝑡 = 𝐸[(𝜀𝑡 + 𝛽𝜀𝑡−1 )(𝜀𝑡 + 𝛽𝜀𝑡−1 )] = (1 + 𝛽 2 )𝜎 2


𝛾1 = 𝐸𝑦𝑡 𝑦𝑡−1 = 𝐸[(𝜀𝑡 + 𝛽𝜀𝑡−1 )(𝜀𝑡−1 + 𝛽𝜀𝑡−2 )] = 𝛽 2 𝜎 2

dan

𝛾𝑠 = 𝐸𝑦𝑡 𝑦𝑡−𝑠 = 𝐸[(𝜀𝑡 + 𝛽𝜀𝑡−1 )(𝜀𝑡−𝑠 + 𝛽𝜀𝑡−𝑠−1 )] = 0 untuk semua 𝑠 > 1

Oleh karena itu, membagi setiap 𝛾𝑠 dengan 𝛾0, dapat langsung terlihat bahwa ACF
hanya 𝜌0 = 1, 𝜌1 = 𝛽/(1 + 𝛽 2 ), dan 𝜌𝑠 = 0 untuk semua s > 1. Grafik ketiga di sisi kiri
dari Gambar 2.2 menunjukkan ACF untuk proses MA(1) 𝑦𝑡 = 𝜀𝑡 − 0.7𝜀𝑡−1. Sebagai latihan,
Anda harus menunjukkan bahwa ACF untuk proses MA(2) memiliki dua lonjakan dan
kemudian dipotong menjadi nol.

Fungsi Autokorelasi dari Proses ARMA(1,1)

Akhirnya, misalkan 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝜀𝑡 + 𝛽𝜀𝑡−1 . Dengan menggunakan prosedur yang


sekarang sudah familier, kami menemukan persamaan Yule-Walker

𝐸𝑦𝑡 𝑦𝑡 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡 + 𝐸𝜀𝑡 𝑦𝑡 + 𝛽1 𝐸𝜀𝑡−1 𝑦𝑡 ⇒ 𝛾0 = 𝑎1 𝛾1 + 𝜎 2 + 𝛽1 (𝑎1 + 𝛽1 )𝜎 2 (2.30)

𝐸𝑦𝑡 𝑦𝑡−1 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡−1 + 𝐸𝜀𝑡 𝑦𝑡−1 + 𝛽1 𝐸𝜀𝑡−1 𝑦𝑡−1 ⇒ 𝛾1 = 𝑎1 𝛾0 + 𝛽1 𝜎 2 (2.31)

𝐸𝑦𝑡 𝑦𝑡−2 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡−2 + 𝐸𝜀𝑡 𝑦𝑡−2 + 𝛽1 𝐸𝜀𝑡−1 𝑦𝑡−2 ⇒ 𝛾2 = 𝑎1 𝛾1 (2.32)

𝐸𝑦𝑡 𝑦𝑡−𝑠 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡−𝑠 + 𝐸𝜀𝑡 𝑦𝑡−𝑠 + 𝛽1 𝐸𝜀𝑡−1 𝑦𝑡−𝑠 ⇒ 𝛾𝑠 = 𝑎1 𝛾𝑠−1 (2.33)

Dalam memperoleh (2.30), perhatikan bahwa 𝐸𝜀𝑡−1 𝑦𝑡 adalah (𝑎1 + 𝛽1 )𝜎 2 . (2.30)


dan (2.31) secara bersamaan untuk 𝛾0 dan 𝛾1 menghasilkan

1 + 𝛽12 + 2𝑎1 𝛽1 2
𝛾0 = 𝜎
(1 − 𝑎12 )

(1 + 𝑎1 𝛽1 )(𝑎1 + 𝛽1 ) 2
𝛾1 = 𝜎
(1 − 𝑎12 )

Bentuk rasio 𝛾1 /𝛾0 untuk mendapatkan


(1+𝑎1 𝛽1 )(𝑎1 +𝛽1 )
𝜌1 = (2.34)
(1+𝛽12 +2𝑎1 𝛽1 )

dan 𝜌𝑠 = 𝑎1 𝜌𝑠−1 untuk semua 𝑠 ≥ 2

Dengan demikian, ACF untuk proses ARMA(1,1) sedemikian rupa sehingga


besarnya 𝜌1 tergantung pada 𝑎1 dan 𝛽1. Dimulai dengan nilai 𝜌1 ini, ACF dari proses
ARMA(1,1) terlihat seperti proses AR(1). Jika 0 < 𝑎1 < 1, konvergensi akan searah, dan
jika −1 < 𝑎1 < 0, autokorelasi akan berosilasi. ACF untuk fungsi 𝑦𝑡 = −0.7𝑦𝑡−1 + 𝜀𝑡 −
0.7𝜀𝑡−1 ditunjukkan oleh grafik terakhir di sisi kiri dari Gambar 2.2. Bagian atas dari Lembar
Kerja 2.2 menjelaskan autokorelasi ini.

Kami memberikan Anda latihan menurunkan korelogram dari proses ARMA(2,1)


yang digunakan dalam Lembar Kerja 2.1. Anda harus bisa mengenali titik bahwa korelogram
dapat mengungkapkan pola koefisien autoregresif. Untuk model ARMA (p,q) yang dimulai
setelah lag 𝑞, nilai 𝜌𝑖 akan memenuhi

𝜌𝑖 = 𝑎1 𝜌𝑖−1 + 𝑎2 𝜌𝑖−2 + ⋯ + 𝑎𝑝 𝜌𝑖−𝑝

Nilai p sebelumnya dapat diperlakukan sebagai kondisi awal yang memenuhi persamaan
Yule-Walker. Untuk lag ini, bentuk ACF ditentukan oleh persamaan karakteristik.

Lembar Kerja 2.2

PERHITUNGAN AUTOKORELASI PARSIAL DARI 𝑦𝑡 = −0.7𝑦𝑡−1 + 𝜀𝑡 − 0.7𝜀𝑡−1

Langkah 1: Hitung autokorelasi. Gunakan (2.34) untuk menghitung 𝜌1 sebagai

(1 + 0.49)(−0.7 − 0.7)
𝜌1 = = −0.8445
1 + 0.49 + 2(0.49)

Autokorelasi yang tersisa meluruh pada laju 𝜌𝑖 = −0.7𝜌𝑖−1 sehingga

𝜌2 = 0.591, 𝜌3 = −0.414, 𝜌4 = 0.290, 𝜌5 = −0.203, 𝜌6 = 0.142, 𝜌7 = −0.099,

𝜌8 = 0.070

Langkah 2: Hitung dua autokorelasi parsial pertama menggunakan (2.35) dan (2.36).
Karena itu,

𝜙11 = 𝜌1 = −0.8445

𝜙22 = [0.591 − (−0.8445)2 ]/[1 − (−0.8445)2 ] = −0.426

Langkah 3: Hitung semua 𝜙𝑠𝑠 yang tersisa secara iteratif menggunakan (2.37). Untuk
mencari 𝜙33 , perhatikan bahwa 𝜙21 = 𝜙11 − 𝜙22 𝜙11 = −1.204 dan bentuk
−1
2 2

𝜙33 = (𝜌3 − ∑ 𝜙2𝑗 𝜌3−𝑗 ) (1 − ∑ 𝜙2𝑗 𝜌𝑗 )


𝑗=1 𝑗=1
= [−0.414 − (−1.204)(0.591) − (−0.426)(−0.8445)]
/ [1 − (−1.204)(−0.8445) − (−0.426)(0.591)]

= −0.262

Demikian pula, untuk menemukan 𝜙44 , gunakan


−1
3 3

𝜙44 = (𝜌4 − ∑ 𝜙3𝑗 𝜌4−𝑗 ) (1 − ∑ 𝜙3𝑗 𝜌𝑗 )


𝑗=1 𝑗=1

Karena 𝜙3𝑗 = 𝜙2𝑗 − 𝜙33 𝜙2,2−𝑗 , maka 𝜙31=−1.315 dan 𝜙32 = −0.74. Karena itu,

𝜙44 = −0.173

Jika kita melanjutkan dengan cara ini, dimungkinkan untuk menunjukkan bahwa 𝜙55 =
−0.117, 𝜙66 = −0.081, 𝜙77 = −0.056 dan 𝜙88 = −0.039.

6. Fungsi Autokorelasi Parsial

Dalam proses AR(1), 𝑦𝑡 dan 𝑦𝑡−2 berkorelasi meskipun 𝑦𝑡−2 tidak muncul secara langsung
dalam model. Korelasi antara 𝑦𝑡 dan 𝑦𝑡−2 (yaitu, 𝜌2 ) sama dengan korelasi antara 𝑦𝑡 dan
𝑦𝑡−1 (yaitu, 𝜌1 ) dikalikan dengan korelasi antara 𝑦𝑡−1 dan 𝑦𝑡−2 (yaitu, 𝜌1 lagi) sehingga
𝜌2 = (𝜌1 )2. Penting untuk dicatat bahwa semua korelasi tidak langsung tersebut hadir dalam
ACF dari setiap proses autoregresif. Sebaliknya, autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−𝑠
menghilangkan efek dari nilai intervensi 𝑦𝑡−1 melalui 𝑦𝑡−𝑠+1 .

Dengan demikian, di dalam proses AR(1), autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−2 sama
dengan nol. Cara paling sering untuk menemukan fungsi autokorelasi parsial yang pertama
membentuk seri {𝑦𝑡∗ } dengan mengurangi rata-rata dari seri tersebut (𝑖. 𝑒. , 𝜇) dari setiap
observasi untuk menentukan 𝑦𝑡∗ ≡ 𝑦𝑡 − 𝜇. Selanjutnya, membentuk autoregresi orde
pertama

𝑦𝑡∗ = 𝜙11 𝑦𝑡−1 + 𝑒𝑡

dimana 𝑒𝑡 adalah error term (istilah kesalahan).

Disini, symbol {𝑒𝑡 } digunakan karena proses kesalahan/error ini mungkin bukan
white noise.
Karena tidak ada nilai intervensi, 𝜙11 adalah autokorelasi dan autokorelasi parsial
antara 𝑦𝑡 dan 𝑦𝑡−1 . Sekarang, bentuk persamaan autoregresi orde kedua
∗ ∗
𝑦𝑡∗ = 𝜙21 𝑦𝑡−1 + 𝜙22 𝑦𝑡−2 + 𝑒𝑡

Disini, 𝜙22 adalah koefisien autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−2. Dengan kata
lain, 𝜙22 adalah hubungan antara 𝑦𝑡 dan 𝑦𝑡−2 mengendalikan untuk (i.e., "menghapus") efek
dari 𝑦𝑡−1 . Mengulangi proses ini untuk semua tambahan lag s menghasilkan fungsi
autokorelasi parsial (PACF). Dalam praktiknya, dengan ukuran sampel T, hanya T/4 lag yang
digunakan di dalam menentukan sampel PACF.

Karena sebagian besar paket komputer statistik melakukan transformasi ini, ada
sedikit kebutuhan untuk menguraikan prosedur komputasi. Namun, harus ditunjukkan
bahwa metode komputasi sederhana yang mengandalkan apa yang disebut persamaan Yule-
Walker itu tersedia. Seseorang dapat membentuk autokorelasi parsial dari autokorelasi
sebagai

𝜙11 = 𝜌1 (2.35)

𝜙22 = (𝜌2 − 𝜌12 )/(1 − 𝜌12 ) (2.36)

dan, untuk tambahan lag,

𝜌𝑠 −∑𝑠−1
𝑗=1 𝜙𝑠−1,𝑗 𝜌𝑠−𝑗
𝜙𝑠𝑠 = , 𝑠 = 3,4,5, … (2.37)
1−∑𝑠−1
𝑗=1 𝜙𝑠−1,𝑗 𝜌𝑗

dimana 𝜙𝑠𝑗 = 𝜙𝑠−1,𝑗 − 𝜙𝑠𝑠 𝜙𝑠−1,𝑠−𝑗 , 𝑗 = 1,2,3, … , 𝑠 − 1.

Untuk AR(p) proses, tidak ada korelasi langsung antara 𝑦𝑡 dan 𝑦𝑡−𝑠 untuk 𝑠 > 𝑝.
Oleh karena itu, untuk 𝑠 > 𝑝, semua nilai dari 𝜙𝑠𝑠 akan menjadi nol, dan PACF untuk murni
AR(p) proses seharusnya dipotong menjadi nol untuk semua lag yang lebih besar dari p. Ini
adalah fitur yang berguna dari PACF yang dapat membantu dalam identifikasi AR(p) model.
Sebaliknya, pertimbangkan PACF untuk proses MA(1): 𝑦𝑡 = 𝜀𝑡 + 𝛽𝜀𝑡−1 . Selama 𝛽 ≠ −1,
kita dapat menulis 𝑦𝑡 /(1 + 𝛽𝐿) = 𝜀𝑡 , yang kita ketahui memiliki representasi autoregresif
orde tak terbatas

𝑦𝑡 − 𝛽𝑦𝑡−1 + 𝛽 2 𝑦𝑡−2 − 𝛽 3 𝑦𝑡−3 + ⋯ = 𝜀𝑡

Dengan demikian, PACF tidak akan lompat ke nol karena 𝑦𝑡 akan berkorelasi dengan
semua lag-nya sendiri. Sebaliknya, koefisien PACF menunjukkan pola peluruhan geometris.
Jika 𝛽 < 0, peluruhannya langsung, dan jika 𝛽 > 0, koefisien PACF berosilasi.
Lembar Kerja 2.2 mengilustrasikan prosedur yang digunakan dalam membangun
PACF untuk model ARMA(1, 1) yang ditunjukkan pada panel kelima di sisi kanan Gambar
2.2:

𝑦𝑡 = −0.7𝑦𝑡−1 + 𝜀𝑡 − 0.7𝜀𝑡−1

Pertama, hitung autokorelasinya. Jelas, 𝜌0 = 1; gunakan persamaan (2.34) untuk


menghitung sebagai 𝜌1 = −0.8445. Setelah itu, koefisien ACF meluruh dengan laju 𝜌𝑖 =
(−0.7)𝜌𝑖−1 untuk 𝑖 ≥ 2. Gunakan (2.35) dan (2.36), kami menghitung 𝜙11 = −0.8445 dan
𝜙22 = −0.4250. Semua selanjutnya 𝜙𝑠𝑠 dan 𝜙𝑠𝑗 dan dihitung dari (2.37) seperti dalam
Lembar Kerja 2.2.

Lebih umum, PACF dari stasioner proses ARMA (p, q) pada akhirnya harus meluruh
menuju nol dimulai pada lag p. Pola peluruhan tergantung pada koefisien polynomial
(1 + 𝛽1 𝐿 + 𝛽2 𝐿2 + ⋯ + 𝛽𝑞 𝐿𝑞 ). Tabel 2.1 merangkum beberapa properti ACF dan PACF
untuk berbagai proses ARMA. Juga, grafik sisi kanan Gambar 2.2 menunjukkan fungsi
autokorelasi parsial dari lima proses yang ditunjukkan.

Untuk proses stasioner, poin-poin penting yang perlu diperhatikan adalah sebagai
berikut:

1. ACF dari ARMA (p, q) proses akan mulai meluruh setelah lag q. Setelah lag q,
koefisien ACF (i.e., 𝜌𝑖 ) akan memenuhi beda persamaan (𝜌𝑖 = 𝛼1 𝜌𝑖−1 +
𝛼2 𝜌𝑖−2 + ⋯ + 𝛼𝑝 𝜌𝑖−𝑝 ). Karena akar karakteristik berada di dalam lingkaran
satuan, autokorelasi akan meluruh setelah lag q. Selain itu, pola koefisien
autokorelasi akan meniru yang disarankan oleh akar karakteristik.

2. PACF dari ARMA (p, q) proses akan mulai meluruh setelah lag p. Setelah lag p,
koefisien PACF (i.e., 𝜙𝑠𝑠 ) akan meniru koefisien ACF dari model 𝑦𝑡 /(1 + 𝛽1 𝐿 +
𝛽2 𝐿2 + ⋯ + 𝛽𝑞 𝐿𝑞 ).

Tabel 2.1 Sifat dari ACF dan PACF

Proses ACF PACF

White noise Semua 𝜌𝑠 = 0 (𝑠 ≠ 0) Semua 𝜙𝑠𝑠 = 0


AR(1): 𝑎1 > 0 Peluruhan geometrik 𝜙11 = 𝜌1 ; 𝜙𝑠𝑠 = 0 𝑢𝑛𝑡𝑢𝑘 𝑠 ≥ 2
langsung: 𝜌𝑠 = 𝑎1𝑠

AR(1): 𝑎1 < 0 Peluruhan berosilasi: 𝜌𝑠 = 𝑎1𝑠 𝜙11 = 𝜌1 ; 𝜙𝑠𝑠 = 0 𝑢𝑛𝑡𝑢𝑘 𝑠 ≥ 2

AR(p) Peluruhan menuju nol. Lonjakan melalui lag p. Semua


Koefisien dapat berosilasi. 𝜙𝑠𝑠 = 0 𝑢𝑛𝑡𝑢𝑘 𝑠 > 𝑝

MA(1): 𝛽 > 0 Lonjakan positif pada lag 1. Peluruhan berosilasi: 𝜙11 > 0
𝜌𝑠 = 0 𝑢𝑛𝑡𝑢𝑘 𝑠 ≥ 2

MA(1): 𝛽 < 0 Lonjakan negatif pada lag 1. Peluruhan geometris: 𝜙11 < 0
𝜌𝑠 = 0 𝑢𝑛𝑡𝑢𝑘 𝑠 ≥ 2

ARMA(1,1): 𝑎1 > 0 Peluruhan geometris dimulai Peluruhan berosilasi setelah lag


setelah lag 1. 𝑇𝑎𝑛𝑑𝑎 𝜌1 = 1. 𝜙11 = 𝜌1
𝑡𝑎𝑛𝑑𝑎(𝑎1 + 𝛽)

ARMA(1,1): 𝑎1 < 0 Peluruhan berosilasi dimulai Peluruhan geometris dimulai


setelah lag 1. 𝑇𝑎𝑛𝑑𝑎 𝜌1 = setelah lag 1. 𝜙11 = 𝜌1 dan
𝑡𝑎𝑛𝑑𝑎(𝑎1 + 𝛽) 𝑡𝑎𝑛𝑑𝑎(𝜙𝑠𝑠 ) = 𝑡𝑎𝑛𝑑𝑎(𝜙11 )

ARMA(p,q) Peluruhan (baik langsung Peluruhan (baik langsung atau


atau berosilasi) awal setelah berosilasi) dimulai setelah lag p
lag q

Kita dapat mengilustrasikan kegunaan fungsi ACF dan PACF menggunakan model
𝑦𝑡 = 𝛼0 + 0.7𝑦𝑡−1 + 𝜀𝑡 . Jika kita membandingkan dua grafik teratas pada Gambar 2.2, ACF
menunjukkan peluruhan monoton dari autokorelasi sementara PACF menunjukkan lonjakan
tunggal pada lag 1. Misalkan seorang peneliti mengumpulkan data sampel dan memplot ACF
dan PACF. Jika pola aktual dibandingkan dengan pola teoretis, peneliti mungkin mencoba
memperkirakan data menggunakan model AR(1). Sejalan dengan itu, jika ACF
menunjukkan lonjakan tunggal dan PACF menunjukkan peluruhan monoton (lihat grafik
ketiga untuk model 𝑦𝑡 = 𝜀𝑡 − 0.7𝜀𝑡−1 ), peneliti dapat mencoba model MA(1).

7. SAMPEL AUTOKORELASI DERET STASIONER

Dalam praktiknya, rata-rata teoretis, varians, dan autokorelasi dari suatu deret tidak
diketahui oleh peneliti. Mengingat bahwa suatu deret stasioner, kita dapat menggunakan
mean sampel, varians, dan autokorelasi untuk memperkirakan parameter dari proses
pembuatan data yang sebenarnya. Biarkanlah terjadi begitu T pengamatan berlabel 𝑦1
melalui 𝑦𝑇 . Kita dapat membiarkan 𝑦, 𝜎̂ 2 , 𝑑𝑎𝑛 𝑟𝑠 menjadi perkiraan dari 𝜇, 𝜎 2 , 𝑑𝑎𝑛 𝜌𝑠 ,

masing-masing dimana

𝑦 = (1/𝑇) ∑𝑇𝑡=1 𝑦𝑡 (2.38)

2
𝜎̂ 2 = (1/𝑇) ∑𝑇𝑡=1 (𝑦𝑡 − 𝑦) (2.39)

dan untuk setiap nilai dari 𝑠 = 1,2, …,

∑𝑇
𝑡=𝑠+1 (𝑦𝑡 −𝑦)(𝑦𝑡−𝑠 −𝑦)
𝑟𝑠 = 2 (2.40)
∑𝑇
𝑡=1 (𝑦𝑡 −𝑦)

Fungsi autokorelasi sampel [i.e., ACF yang diturunkan dari (2.40)] dan sampel
PACF dapat dibandingkan dengan berbagai fungsi teoretis untuk membantu
mengidentifikasi sifat sebenarnya dari proses pembuatan data. Box dan Jenkins (1976)
membahas distribusi nilai sampel dari 𝑟𝑠 di bawah nol itu 𝑦𝑡 adalah stasioner dengan
error/kesalahan terdistribusi normal. Mengizinkan 𝑣𝑎𝑟(𝑟𝑠 ) untuk menunjukkan varians
sampling dari 𝑟𝑠 , mereka memperoleh

𝑣𝑎𝑟(𝑟𝑠 ) = 𝑇 −1 untuk s = 1

= 𝑇 −1 (1 + 2 ∑𝑠−1
𝑗=1 𝑟𝑗2 ) untuk s > 1 (2.41)

jika nilai sebenarnya dari 𝑟𝑠 = 0 [i.e., jika proses pembuatan data yang sebenarnya adalah
MA(s - 1) proses]. Selain itu, dalam sampel besar (i.e., untuk nilai besar T), 𝑟𝑠 akan
terdistribusi normal dengan rata-rata sama dengan nol. Untuk koefisien PACF, di bawah
hipotesis nol dari model AR(p) (i.e., di bawah nol itu semua 𝜙𝑝+𝑖,𝑝+𝑖 adalah nol), varians
dari 𝜙̂𝑝+𝑖,𝑝+𝑖 adalah sekitar 1/T (Lihat Bagian 2.3 dari Panduan Tambahan).

Dalam latihan, kita bisa menggunakan contoh sampel ini untuk membuat sampel
autokorelasi dan fungsi autokorelasi parsial dan tes untuk signifikansi menggunakan ( 2.41
). Sebagai contoh, jika kita menggunakan tingkat kepercayaan 95 persen, dan nilai
𝑟1melebihi 2𝑇 −1/2, mungkin untuk menolak hipotesis nol bahwa autokorelasi orde pertama
secara statistik tidak berbeda dari 0. Menolak hipotesis ini berarti menolak proses
𝑀𝐴(𝑠 − 1) = 𝑀𝐴(0) dan menerima alternatif q > 0. Selanjutnya, mencoba 𝑠=
2; 𝑣𝑎𝑟(𝑟2 ) = (1 + 2𝑟12 )/𝑇. Jika 𝑟1 = 0,5 𝑑𝑎𝑛 𝑇 = 100, varians 𝑟2 adalah 0,0015 dan
standar deviasinya sekitar 0,123. Jadi jika 𝑟2 > 2(0,123), mungkin untuk menolak hipotesis
𝑟2 = 0. Di sini, menolak hipotesis nol berarti menerima alternatif bahwa q > 1. Mengulang
nilai s yang lain dapat membantu dalam mengidentifikasi urutan proses. Jumlah maksimum
sampel autokorelasi dan autokorelasi parsial yang digunakan biasanya 𝑇/4.

Dalam kelompok besar autokorelasi, beberapa akan melebihi dua standar deviasi sebagai
hasil murni dari kesempatan meskipun nilai sebenarnya dari data yang diproses adalah nol.
Nilai statistik Q dapat digunakan untuk menguji apakah sekelompok autokorelasi berbeda
secara signifikan dari nol. Box dan Pierce (1970) menggunakan sampel autokorelasi untuk
membentuk statistik
𝑠

𝑄 = 𝑇 ∑ 𝑟𝑘2
𝑘=1

Dengan hipotesis nol : semua nilai 𝑟𝑘 = 0, Q secara asimtotik berdistribusi chi-square


dengan derajat bebas s. Intuisi di balik penggunaan statistik adalah bahwa sampel
autokorelasi yang tinggi menyebabkan nilai Q yang besar juga. Tentu saja, proses white-
noise (di mana semua autokorelasi harus nol) akan memiliki nilai Q nol. Jika nilai Q
melebihi nilai chi square maka tolak hipotesis nol bahwa tidak ada autokorelasi yang
signifikan. Perhatikan bahwa menolak hipotesis nol berarti menerima alternatif bahwa
setidaknya ada satu autokorelasi tidak nol.

Permasalahan dengan statistik Box-Pierce adalah bahwa statistik ini akan bekerja dengan
buruk bahkan dalam sampel yang cukup besar. Ljung dan Box (1978) mendapatkan
performa superior pada sampel kecil dengan modifikasi statistik Q yang dihitung

𝑄
𝑠
𝑟𝑘2
= 𝑇(𝑇 + 2) ∑ (2.42)
𝑇−𝑘
𝑘=1

Jika nilai Q dair 2.42 melebihi nilai kritis chi-square dengan derajat bebas s, maka setidaknya
ada satu nilai 𝑟𝑘 ≠ 0. Statistik Q Box-Pierce dan Ljung dan Box juga dapat digunakan untuk
memeriksa jika residual dari ARMA(p,q) adalah white noise. Tetapi, ketika korelasi s dari
ARMA(p,q) terbentuk, derajat bebas jadi berkurang sesuai banyaknya koefisien. Oleh
karena itu, menggunakan residual ARMA(p,q), Q punya chi square dengan derajat bebas s-
p-q ( jika ada konstanta jadi s-p-q-1 ).

Kriteria Pemilihan Model


Satu pertanyaan yang wajar untuk ditanyakan pada setiap model yang diperkirakan adalah:
Seberapa cocok model tersebut dengan data? Menambahkan lag tambahan untuk p dan atau
q perlu untuk mengurangi jumlah kuadrat dari residual. Namun, menambahkan lag seperti
itu memerlukan estimasi tambahan koefisien dan hilangnya derajat kebebasan yang terkait.
Selain itu, dimasukkannya koefisien asing akan mengurangi performa peramalan model.
Seperti dibahas dalam Lampiran 2.2 dalam Manual Tambahan, ada berbagai kriteria
pemilihan yang mengganti pengurangan jumlah kuadrat residual agar model tetap
parsimoni. Dua kriteria pemilihan model yang paling umum digunakan adalah: Kriteria
Informasi Akaike (AIC) dan Kriteria Bayesian Schwartz (SBC). Dalam teks, kami
menggunakan rumus berikut:

𝐴𝐼𝐶 = 𝑇𝑙𝑛(𝑆𝑆𝑅) + 2𝑛

𝑆𝐵𝐶 = 𝑇 𝑙𝑛(𝑆𝑆𝑅) + 𝑛 𝑙𝑛(𝑇)

di mana n = Jumlah parameter yang diestimasi

T = Jumlah observasi yang bisa digunakan

Saat menggunakan model yang ada variabel lag, beberapa observasi hilang. Agar dapat
membandingkan dengan model alternatif, T harus tetap. Jika tidak, anda akan
membandingkan performa model dengan periode waktu yang berbeda. Lebih lagi,
penurunan T memiliki efek langsung mengurangi AIC dan SBC; tujuannya adalah bukan
memilih model karena memiliki jumlah pengamatan yang paling sedikit. Misalnya dengan
100 data, estimasi AR(1) dan AR(2) hanya menggunakan 98 pengamatan terakhir dalam
setiap estimasi. Bandingkan kedua model menggunakan T = 98.

Idealnya, AIC dan SBC akan sekecil mungkin ( perhatikan bahwa keduanya bisa negatif ).
Saat kecocokan model meningkat, AIC dan SBC akan mendekati −∞. Kita dapat
menggunakan kriteria ini untuk membantu dalam memilih model yang terbaik; model A
dikatakan lebih cocok dari model B jika AIC (atau SBC) untuk A lebih kecil dari model B.
Dalam menggunakan kriteria untuk membandingkan model, kita harus estimasi sampel pada
periode yang sama sehingga mereka akan sebanding. Untuk masing-masing, meningkatkan
jumlah regressor meningkatkan n tetapi harus memiliki efek mengurangi jumlah residual
kuadrat (SSR). Jadi, jika regressor tidak memiliki kekuatan penjelas, menambahkannya ke
model akan menyebabkan kedua AIC dan SBC meningkat. Karena ln(T) akan lebih besar
dari 2, SBC akan selalu memilih model yang lebih parsimoni daripada AIC; biaya marjinal
menambahkan regressor lebih besar dengan SBC daripada dengan AIC.
Fitur yang sangat berguna dalam kriteria pemilihan model adalah untuk membandingkan
model yang tidak bersarang. Misalnya, Anda ingin membandingkan model AR(2) dengan
model MA (3). Tidak ada yang merupakan bentuk terbatas dari yang lain. Anda tidak ingin
memperkirakan model ARMA(2, 3) dan melakukan uji-F untuk menentukan apakah 𝑎1 =
𝑎2 = 0 atau 𝛽1 = 𝛽2 = 0. Seperti didiskusikan pada lampiran 2.1, estimasi model ARMA
memerlukan metode solusi komputer. Jika model AR(2) dan MA(3) layak, algoritma
pencarian nonlinier memerlukan estimasi model ARMA(2, 3) tidak akan konvergen ke suatu
solusi. Lebih lagi, nilai 𝑦𝑡−1 dan 𝑦𝑡−2 berkorelasi dengan 𝜀𝑡−1 , 𝜀𝑡−2 , 𝑑𝑎𝑛 𝜀𝑡−3 .

Fitur yang sangat bermanfaat dari kriteria pemilihan model adalah untuk
membandingkan model yang tidak bersarang. Misalnya, ingin membandingkan model
AR(2) dan model MA(3). Kedua model tersebut bukan merupakan bentuk terbatas dari yang
lain. Anda tidak ingin mengestimasi model ARMA(2,3) dan melakukan Uji-F untuk
menentukan apakah 𝛼1 = 𝛼2 = 0 atau apakah 𝛽1 = 𝛽2 = 0. Seperti yang sudah dibahas
dalam lampiran 2.1, estimasi model ARMA memerlukan metode solusi berbasis komputer.
Jika Model AR(2) dan MA(3) masuk akal, algoritma pencarian nonlinier yang diperlukan
untuk memperkirakan model ARMA(2,3) tidak mungkin konvergen ke solusi. Selain itu
nilai 𝑦𝑡−1 dan 𝑦𝑡−2 berkorelasi dengan nilai 𝜀𝑡−1 , 𝜀𝑡−2 , dan 𝜀𝑡−3 . Ini sangat mungkin kedua
hipotesis dapat diterima (atau di tolak). Namun, sangat mudah untuk membandingkan
estimasi model AR(2) dan MA(3) menggunakan AIC atau SBC.

Dari dua kriteria tersebut, SBC memiliki sifat sampel besar yang unggul. Biarkan
ordo sebenarnya dari proses pembentukkan data menjadi (𝑝∗ , 𝑞 ∗ ) dan misalkan kita
menggunakan AIC dan SBC untuk mengestimasi semua model dari ordo (𝑝, 𝑞) dimana (𝑝 ≥
𝑝∗ ) dan (𝑞 ≥ 𝑞 ∗ ). Baik AIC dan SBC akan memilih model dari ordo yang lebih besar atau
sama dengan (𝑝∗ , 𝑞 ∗ ) karena ukuran sampel mendekati tak terhingga, Namun, SBC
konsisten asimtotik sementara AIC bias terhadap pemilihan model yang overparameter.
Namun, pada sampel kecil, AIC dapat bekerja lebih baik daripada SBC. Anda dapat cukup
yakin dengan hasil jika AIC dan SBC memilih model yang sama. Jika AIC dan SBC memilih
model yang berbeda, maka diperlukan kehati-hatian. Karena SBC memilih model yang
parsimoni, perlu diperiksa untuk menentukan apakah residual nya tampak white noise.
Karena AIC dapat memilih model yang overparameter, t-statistik dari semua koefisien harus
signifikan pada level konvesional. Sejumlah pameriksaan diagnostic lain yang dapat
digunakan untuk membandingkan model alternatif yang disajikan pada Section 8 dan 9.
Namun, hal ini bijaksana untuk mempertahankan sketisisme yang sehat dari model yang
diperkirakan. Dengan banyak data yang dikumpulkan, tidak mungkin menemukan satu
model yang jelas-jelas mendominasi semua model lainnya. Tidak ada salahnya dengan
melaporkan hasil dan peramalan dengan menggunakan estimasi alternatif.

Sebelum dilanjutkan, terdapat sejumlah cara berbeda yang digunakan untuk


melaporkan AIC dan SBC. Misalnya software EViews dan SAS melaporkan nilai AIC dan
SBC menggunakan

𝐴𝐼𝐶 ∗ = −2(𝐿) /𝑇 + 2𝑛/𝑇

𝑆𝐵𝐶 ∗ = −2(𝐿) /𝑇 + 𝑛 𝑙𝑛(𝑛)/𝑇

dimana 𝑛 dan 𝑇 didefinisikan seperti yang diatas, dan 𝐿 adalah nilai maksimal dari fungsi
log likelihood.

Untuk distribusi normal,−2 𝑙𝑛 𝑙𝑛 (𝐿) = 𝑇 𝑙𝑛(2𝜋) + 𝑇 𝑙𝑛(𝜎 2 ) + (1/𝜎 2 ) (𝑆𝑆𝑅).


Alasan banyaknya metode pelaporan adalah terdapat banyak packages software (seperti OX,
RATS, dan GAUSS) tidak menampilkan kriteria pemilihan model, sehingga pengguna harus
menghitung nilai ini sendiri. Pemrograman dengan cepat menemukan bahwa pengkodean
semua parameter yang terkandung dalam rumus tidak diperlukan dan cukup melaporkan
versi singkatnya. Faktanya, tidak masalah metode apa yang digunakan. Untuk pertanyaan 7
di akhir bab ini, harus jelas bahwa model dengan nilai 𝐴𝐼𝐶 terkecil akan selalu memiliki
nilai 𝐴𝐼𝐶 ∗ terkecil. Pertanyaan 7 secara khusus diminta untuk menuliskan rumus untuk
𝑙𝑛 (𝐿) dan menunjukkan bahwa persamaan untuk 𝐴𝐼𝐶 ∗ adalah transformasi monoton untuk
𝐴𝐼𝐶. Oleh karena itu, dengan menggunakan rumus 𝐴𝐼𝐶 atau 𝐴𝐼𝐶 ∗ , akan selalu memilih
model yang sama dengan yang dipilih dalam teks. Hubungan yang identic berlaku antara
𝑆𝐵𝐶 dan 𝑆𝐵𝐶 ∗ ; model yang menghasilkan SBC terkecil selalu memiliki 𝑆𝐵𝐶 ∗ terkecil.

Estimasi Model AR(1)

Mari gunakan contoh spesifik untuk melihat bagaimana fungsi autokorelasi sampel
dan fungsi autokorelasi parsial bisa digunakan sebagai bantuan dalam mengidentifikasi
model ARMA. Sebuah program komputer digunakan untuk menggamber 100 bilangan acak
yang terdistribusi normal dengan varians teoritis sama dengan satu. Variabel acak 𝜀𝑡 , dimana
𝑡 adalah nilai dari 1 hingga 100.
Gambar 2.3 ACF dan PACF untuk Dua Proses Simulasi

Dimulai dengan 𝑡 = 1, nilai 𝑦𝑡 dibentuk dengan menggunakan rumus 𝑦𝑡 = 0,7𝑦𝑡−1 + 𝜖𝑡 dan


kondisi awal 𝑦0 = 0. Perhatikan bahwa masalah nonstasioneritas dihindari karena kondisi
awal konsisten dengan ekuilibrium jangka panjang. Panel (a) pada Gambar 2.3 menunjukkan
sampel korelogram dan Panel (b) menunjukkan sampel PACF. Diperlukan waktu sebentar
untuk membandingkan ACF dan PACF dengan proses teoritis yang ditunjukkan pada
Gambar 2.2.

Dalam praktiknya, tidak pernah diketahui proses pembuatan data yang sebenarnya,
Sebagai latihan, misalkan disajikan 100 nilai sampel dan diminta untuk mengungkap proses
yang sebenarnya menggunakan metode Box-Jenkins. Pertama, membandingkan sampel
ACF dan PACF dengan model teoritis yang beragam. Pola peluruhan ACF dan lonjakan
besar tunggal pada lag 1 sampel PACF menunjukkan model AR(1). Tiga autokorelasi
pertama adalah 𝑟1 = 0.74, 𝑟2 = 0.58, dan 𝑟3 = 0.47. [Perhatikan bahwa ini sedikit lebih
besar dari nilai teoritis 0.7 0.49 (0.72 = 0.49), dan 0.3434]. Dalam PACF, terdapat
lonjakan yang cukup besar sebesar 0.74 pada lag 1, dan semua autokorelasi parsial lainnya
(kecuali lag 12) sangat kecil.
1
Dibawah hipotesis nol dari proses MA(0), standar deviasi 𝑟1 adalah 𝑇 −2 = 0.1.
Karena nilai sampel 𝑟1 = 0.74 lebih dari tujuh standar deviasi dari nol, maka dapat menolak
hipotesis nol bahwa 𝑟1 sama dengan nol. Standar deviasi 𝑟2 diperoleh dengan menerapkan
(2.41) pada data sampling dimana 𝑠 = 2
1 + 2(0.74)2
𝑣𝑎𝑟(𝑟2 ) = = 0.021
100
1
Karena (0.021)2 = 0.1449, nilai sampel dari 𝑟2 lebih dari tiga standar deviasi dari
nol; pada tingkat signifikansi konvensional, kita dapat menolak hipotesis nol apabila 𝑟2
sama dengan nol. Kita juga dapat menguji signifikansi nilai-nilai lain dari autokorelasi.

Seperti yang kita lihat pada panel(b) pada gambar, selain 𝜙11 , semua autokorelasi
1
parsial (kecuali lag 12) kurang dari 2𝑇 −2 = 0.2. Peluruhan dari ACF dan lonjakan tunggal
PACF memberikan kesan yang kuat dari model autoregressive orde pertama. Namun
demikian, jika kita tidak tahu proses sebenarnya yang mendasari dan menggunakan data
bulanan, kita mungkin akan dikhawatirkan oleh autokorelasi parsial yang signifikan pada
lag ke 12. Lagi pula, dengan data bulanan, kita mungkin dapat mengharapkan beberapa
hubungan langsung antara 𝑦𝑡 dengan 𝑦𝑡−12 .

Meskipun kita tahu bahwa data sebenarnya merupakan hasil dari proses AR(1), itu
mencerahkan untuk membandingkan estimasi atau perkiraan dari dua model yang berbeda.
Misalkan kita mengestimasikan model AR(1) dan mencoba untuk mendapatkan lonjakan
(spike) pada lag ke 12 dengan koefisien MA. Jadi, kita dapat mempertimbangkan dua
model tentatif.

Model 1: 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝜀𝑡

Model 2: 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝜀𝑡 + 𝛽12 𝜀𝑡−12

Tabel 2.2 melaporkan hasil dari dua estimasi. Koefisien dari model 1 memenuhi
kondisi stabilitas |𝑎1 | < 1 dan memiliki standar error yang rendah (terkait dengan t-
statistik untuk nol lebih dari 12). Sebagai pemeriksaan diagnostik yang berguna, kami
membuat plot antara korelogram dari residual yang fit pada model pada gambar 2.4. Q-
Statistics dari residual ini menunjukkan bahwa masing-masing autokorelasi kurang dari
dua standar deviasi dari nol. Ljung-Box Q-statistik dari residual ini menunjukkan bahwa,
sebagai kelompok, lag 1 hingga 8, 1 hingga 16, dan 1 hingga 24 tidak signifikan berbeda
dari nol. Ini adalah bukti kuat bahwa model AR(1) cocok dengan data. Oleh karena itu, jika
residual autokorelasi signifikan, model AR(1) tidak akan menggunakan semua informasi
yang tersedia tentang pergerakan pada deret {𝑦𝑡 }. Sebagai contoh, kita menginginkan
untuk memprediksi 𝑦𝑡+1 dikondisikan pada semua informasi yang tersedia dan termasuk
periode t. Dengan model 1, nilai dari 𝑦𝑡+1 adalah 𝑦𝑡+1 = 𝛼1 𝑦𝑡 + 𝜀𝑡+1 . Oleh karena itu,
prediksi dari model 1 adalah 𝛼1 𝑦𝑡 . Jika residual autokorelasi signifikan, prediksi ini tidak
akan mengambil semua set informasi yang tersedia.

Tabel 2.2 Estimasi dari model AR(1)

Gambar 2.4 Residual ACF dari model 1

Memeriksa hasil dari model 2, perhatikan bahwa kedua model menghasilkan


estimasi yang mirip untuk koefisien autoregressive orde pertama dan standar error terkait.
Namun, perkiraan atau estimasi dari 𝛽12 memiliki kualitas yang buruk; nilai t yang tidak
signifikan menunjukkan bahwa harus dibuang dari model. Selain itu, membandingkan nilai
AIC dan SBC dari dua model menunjukkan bahwa manfaat dari pengurangan SSR diliputi
oleh efek merugikan dari estimasi parameter tambahan. Semua indikator ini menunjukkan
pilihan model 1.

Latihan 8 di akhir bab mencakup berbagai estimasi menggunakan seri ini. Seri ini
dilambangkan dengan Y1 pada file SIM2.XLS. Dalam latihan ini, anda diminta untuk
menunjukkan bahwa model AR(1) bekerja lebih baik daripada beberapa spesifikasi
alternatif.

Estimasi dari Model ARMA (1,1)

Deret kedua {𝑦𝑡 } pada file SIM2.XLS terbentuk untuk mengilustrasikan estimasi
dari ARMA (1,1). Diberikan 100 nilai berdistribusi normal dari {𝜀𝑡 }. 100 nilai {𝑦𝑡 } tersebut
digenerate menggunakan

𝑦𝑡 = −0.7𝑦𝑡−1 + 𝜀𝑡 − 0.7𝜀𝑡−1

Dimana, 𝑦0 dan 𝜀0 keduanya sama dengan nol.

Baik sampel ACF maupun PACF dari data yang disimulasikan (lihat set kedua dari
grafik pada gambar 2.3) kira-kira setara dengan model teoritis yang ditunjukkan pada
gambar 2.2. Namun, jika proses pembuatan data yang sebenarnya tidak diketahui, peneliti
mungkin akan mengkhawatirkan tentang perbedaan tertentu. Model AR(2) dapat
menghasilkan sampel ACF dan PACF mirip dengan yang ada pada gambar. Tabel 2.3
melaporkan hasil estimasi data menggunakan tiga model berikut

Model 1:𝑦𝑡 = 𝛼1 𝑦𝑡−1 + 𝜀𝑡

Tabel 2.3 Estimasi Model ARIMA(1,1)

Catatan :

¹ Standar errors berada dalam tanda kurung

² Ljung-Box Q-statistik dari residual model yang dipasang. Tingkat signifikansi berada
dalam tanda kurung.
³ Untuk komparabilitas, nilai AIC dan SBC dilaporkan untuk estimasi yang hanya
menggunakan observasi 3 sampai 100. Jika AR(1) diperkirakan menggunakan 99
pengamatan, AIC dan SBC masing-masing adalah 502,3 dan 504,9. Jika ARMA(1, 1)
diestimasi menggunakan 99 observasi, AIC dan SBC masing-masing adalah 476,6 dan 481,1

Model 2 : 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝜀𝑡 + 𝛽1 𝜀𝑡−1

Model 3 : 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝑎2 𝑦𝑡−2 + 𝜀𝑡

Dalam memeriksa Tabel 2.3, perhatikan bahwa semua nilai taksiran a sangat
signifikan; masing-masing nilai perkiraan setidaknya delapan standar deviasi dari nol. Jelas
bahwa model AR(1) tidak tepat. Q-statistik untuk model 1 menunjukkan bahwa ada
autokorelasi yang signifikan dalam residual. Perkiraan ARMA(1, 1) model tidak menderita
masalah ini. Selain itu, baik AIC dan SBC memilih model 2 di atas model 1.

Jenis penalaran yang sama menunjukkan bahwa model 2 lebih disukai daripada
model 3. Catatan bahwa, untuk setiap model, koefisien yang diestimasi sangat signifikan dan
titik perkiraan menyiratkan konvergensi. Meskipun Q-statistik pada 24 lag menunjukkan
bahwa dua model tidak menderita residual yang berkorelasi, Q-statistik pada 8 lag
menunjukkan korelasi serial dalam residual model 3. Dengan demikian, model AR(2) tidak
menangkap dinamika jangka pendek, serta model ARMA(1, 1). Perhatikan juga bahwa AIC
dan SBC keduanya memilih model 2.

Estimasi Model AR(2)

Seri data ketiga disimulasikan sebagai

𝑦𝑡 = 0,7𝑦𝑡−1 − 0,49𝑦𝑡−2 + 𝜀𝑡

Estimasi ACF dan PACF dari deret tersebut adalah

Perhatikan autokorelasi besar pada lag 16 dan autokorelasi parsial yang besar pada
lag 14 dan 17. Mengingat cara proses disimulasikan, keberadaan autokorelasi ini adalah
karena tidak lebih dari kesempatan. Namun, seorang ekonometrika tidak menyadari dari
proses pembuatan data yang sebenarnya mungkin khawatir tentang autokorelasi ini.
Perkiraan model AR(2) (dengan t-statistik dalam tanda kurung) adalah
𝑦𝑡 = 0,692𝑦𝑡−1 − 0,481𝑦𝑡−2 AIC = 219,87, SBC = 225,04

(7,73) (-5,37)

Secara keseluruhan, model tampaknya memadai. Namun, dua koefisien AR(2) tidak
dapat menangkap korelasi pada lag yang sangat panjang. Sebagai contoh autokorelasi parsial
residual untuk lag 14 dan 17 keduanya lebih besar dari 0,2 secara nilai absolut. Statistik
Ljung–Box yang dihitung untuk 16 lag adalah 24,6248 (yang signifikan pada tingkat 0,038).
Pada titik ini, mungkin tergoda untuk mencoba memodelkan korelasi di 16 lag dengan
memasukkan istilah rata-rata bergerak 𝛽16 𝜀𝑡−16 . Estimasi seperti itu menghasilkan²

𝑦𝑡 = 0,717𝑦𝑡−1 − 0,465𝑦𝑡−2 + 0,306𝜀𝑡−16 AIC = 213,40, SBC = 221,16

(7,87) (-5,11) (2,78)

Semua koefisien yang diperkirakan adalah signifikan dan statistik Ljung–Box Q


untuk residual semua tidak signifikan pada tingkat konvensional. Sehubungan dengan fakta
bahwa AIC dan SBC keduanya memilih model kedua ini, peneliti tidak mengetahui proses
yang sebenarnya mungkin tergoda untuk menyimpulkan bahwa proses pembuatan data
mencakup pemindahan istilah rata-rata pada 16 lag.

Pemeriksaan model yang berguna adalah dengan membagi sampel menjadi dua
bagian. Jika suatu koefisien adalah terdapat dalam proses pembuatan data, pengaruhnya
harus dilihat di kedua subsampel. Jika deret yang disimulasikan dibagi menjadi dua bagian,
ACF dan PACF menggunakan observasi 50 hingga 100 :

Seperti yang Anda lihat, ukuran autokorelasi parsial pada lag 14 dan 17 berkurang.
Sekarang, memperkirakan model AR(2) murni pada bagian kedua dari sampel ini
menghasilkan

𝑦𝑡 = 0,714𝑦𝑡−1 − 0,538𝑦𝑡−2

(5,92) (-4,47)

Q(8) = 7,83; Q(16) = 15,93; Q(24) = 26,06


Semua koefisien yang diestimasi adalah signifikan, dan statistik Ljung–Box Q benar-
benar tidak menunjukkan adanya autokorelasi yang signifikan dalam residual. Tingkat
signifikansi dari Q(8), Q(16), dan Q(24) berturut-turut adalah 0,251, 0,317, dan 0,249.
Sebenarnya, model ini tidak menangkap proses pembuatan data yang sebenarnya dengan
cukup baik. Dalam contoh ini, autokorelasi palsu besar dari kelambatan panjang dapat
dihilangkan dengan mengubah periode sampel. Dengan demikian, sulit untuk
mempertahankan bahwa korelasi pada 16 lag adalah bermakna. Praktisi paling canggih
memperingatkan agar tidak mencoba menyesuaikan model apa pun dengan waktu yang
sangat lama tertinggal. Seperti yang dapat Anda simpulkan dari (2.41), varians dari 𝑟𝑠 bisa
cukup besar ketika s besar. Selain itu, dalam sampel kecil, beberapa pengamatan "tidak
biasa" dapat menciptakan penampilan autokorelasi yang signifikan pada lag yang panjang.
Karena estimasi ekonometrik melibatkan proses pembuatan data yang tidak diketahui, poin
yang lebih umum adalah bahwa kita selalu perlu berhati-hatilah dengan model perkiraan
kami. Untungnya, Box dan Jenkins (1976) menetapkan satu set prosedur yang dapat
digunakan untuk memeriksa kecukupan model.

8. BOX-JENKINS MODEL SELECTION

Perkiraan model AR(1), ARMA(1, 1), dan AR(2) di bagian sebelumnya menggambarkan
strategi Box-Jenkins (1976) untuk pemilihan model yang tepat. Box dan Jenkins
mempopulerkan metode tiga tahap yang bertujuan untuk memilih model yang sesuai untuk

tujuan memperkirakan dan meramalkan deret waktu univariat. Dalam identifikasi tahap,
peneliti secara visual memeriksa plot waktu dari seri, fungsi autokorelasi, dan fungsi
korelasi parsial. Membuat plot jalur {𝑦𝑡 } urutan memberikan informasi yang berguna
mengenai outlier, nilai yang hilang, dan jeda struktural dalam datanya. Variabel nonstasioner
mungkin memiliki tren yang jelas atau tampak berkelok-kelok tanpa mean atau varians
jangka panjang yang konstan.

Nilai yang hilang dan outlier dapat diperbaiki pada saat ini. Pada suatu waktu, praktik standar
adalah membedakan seri apa pun terlebih dahulu dianggap tidak stasioner. Saat ini, ada
banyak literatur tentang formal prosedur untuk memeriksa ketidakstasioneran. Kami
menunda diskusi ini sampai Bab 4 dan asumsikan bahwa kita bekerja dengan data stasioner.
Perbandingan sampel ACF dan PACF dengan berbagai proses ARMA teoretis mungkin
menyarankan beberapa model yang masuk akal. Pada tahap estimasi, masing-masing model
tentatif fit, dan berbagai koefisien 𝑎𝑖 dan 𝛽𝑖 diperiksa. Pada tahap kedua ini, tujuannya adalah
untuk memilih stasioner dan model sederhana yang memiliki kecocokan yang baik. Tahap
ketiga melibatkan pemeriksaan diagnostic untuk memastikan bahwa residual dari model
yang diperkirakan meniru proses kebisingan putih (white-noise)

Parsimony

Ide mendasar dalam pendekatan Box–Jenkins adalah prinsip sederhana. Sederhana (artinya
jarang atau kikir) harus menjadi sifat kedua bagi para ekonom. Memasukkan koefisien
tambahan tentu akan meningkatkan kecocokan (misalnya, nilai 𝑅 2 akan meningkat) dengan
biaya pengurangan derajat kebebasan. Box dan Jenkins berpendapat bahwa model sederhana
menghasilkan prakiraan yang lebih baik daripada model overparameterisasi. Model
sederhana cocok dengan data, baik tanpa memasukkan koefisien yang tidak perlu. Tentu,
peramal tidak ingin memproyeksikan koefisien yang diperkirakan buruk ke masa depan.
Tujuannya adalah untuk memperkirakan proses pembuatan data yang sebenarnya tetapi tidak
untuk menentukan proses yang tepat. Tujuan dari parsimony menyarankan untuk
menghilangkan koefisien MA(12) di simulasi model AR(1) di atas.

Dalam memilih model yang tepat, ekonometrika perlu menyadari bahwa beberapa
model yang berbeda mungkin memiliki sifat yang sama. Sebagai contoh ekstrim, perhatikan
bahwa

Sebagai contoh paling ekstrem, misal diberikan model AR(1) adalah 𝑦𝑡 = 0.5𝑦𝑡−1 +
𝜀𝑡 ekuivalen dengan moving average order tak terhingga yang direpresentasikan dengan
𝑦𝑡 = 𝜀𝑡 + 0.5𝜀𝑡−1 + 0.25𝜀𝑡−2 + 0.125𝜀𝑡−3 + 0.0625𝜀𝑡−4 + ⋯. Dari sebagian besar
sampel, pendekatan 𝑀𝐴(∞) dengan menggunakan model 𝑀𝐴(2) atau 𝑀𝐴(3) akan
memberikan hasil yang sangat fit. Bagaimanapun, model 𝐴𝑅(1) merupakan model yang
lebih parsimoni dan paling dianjurkan. Sebagai kuis, tunjukkan bahwa model 𝐴𝑅(1)
merupakan representasi yang ekuivalen dari 𝑦𝑡 = 0.25𝑦𝑡−1 + 0.5𝜀𝑡−1 + 𝜀𝑡 .

Selain itu, waspadai masalah faktor umum. Misalkan kita ingin menyesuaikan model
ARMA(2, 3)

(1 − 𝑎1 𝐿 − 𝑎2 𝐿2 )𝑦𝑡 = (1 + 𝛽1 𝐿 + 𝛽2 𝐿2 + 𝛽3 𝐿3 )𝜀𝑡 (2.43)

(1 − 𝑎1 𝐿 − 𝑎2 𝐿2 ) dan (1 + 𝛽1 𝐿 + 𝛽2 𝐿2 + 𝛽3 𝐿3 ) masing-masing dapat difaktorkan


menjadi (1 + 𝑐𝐿)(1 + 𝑎𝐿) dan (1 + 𝑐𝐿)(1 + 𝑏1 𝐿 + 𝑏2 𝐿2 ). Karena (1 + 𝑐𝐿) merupakan
faktor di kedua sisi, maka persamaan (2.43) akan tetap memiliki ekuivalensi tetapi lebih
parsimoni jika dalam bentuk:

(1 + 𝑎𝐿)𝑦𝑡 = (1 + 𝑏1 𝐿 + 𝑏2 𝐿2 )𝜀𝑡 (2.44)

Jika kalian telah melewati kuis yang sebelumnya, kalian dapat mengetahui bahwa
(1 − 0.25𝐿2 )𝑦𝑡 = (1 + 0.5𝐿)𝜀𝑡 ekuivalen terhadap (1 + 0.5𝐿)(1 − 0.5𝐿)𝑦𝑡 = (1 +
0.5𝐿)𝜀𝑡 sehingga 𝑦𝑡 = 0.5𝑦𝑡−1 + 𝜀𝑡 . Dalam praktiknya, polinomial tidak dapat di faktorkan
secara tepat, namun faktornya serupa. Kalian harus mencoba lebih banyak bentuk yang
parsimoni.

Untuk memastikan bahwa model parsimoni, variasi 𝑎𝑖 dan 𝛽𝑖 harus memiliki nilai
statistik-t sebesar 2 atau lebih (jadi tiap koefisien akan secara signifikan berbeda dari nol
pada tingkat signifikansi 5%). Selain itu, koefisiennya tidak boleh berkorelasi secara kuat
satu sama lain. Koefisien yang memiliki kolinieritas yang tinggi akan tidak stabil; biasanya,
satu atau lebih dieliminasi dari model tanpa mengurangi performa dari peramalan/forecast.

Stationarity and Invertibility (Stasioneritas dan Keterbalikan)

Teori distribusi yang mendasari penggunaan sampel ACF dan PACF sebagai
pendekatan terhadap proses true data-generating mengasumsikan bahwa series/urutan {𝑦𝑡 }
stasioner. Selain itu, statistik-t dan statistik-Q juga mengasumsikan bahwa data stasioner.
Estimasi dari koefisien-koefisien autoregressive harus konsisten terhadap asumsi tersebut.
Oleh karena itu, perlu dicurigai apabila nilai estimasi 𝑎1 model 𝐴𝑅(1) mendekati satu. Untuk
model 𝐴𝑅𝑀𝐴(2, 𝑞), karakteristik akar/roots dari estimasi polinomial (1 − 𝑎1 𝐿 − 𝑎2 𝐿2 )
harus berada di luar lingkaran unit.

Seperti yang dibahas secara lebih rinci dalam Appendix 2.1, pendekatan Box-Jenkins
juga mengharuskan model yang invertible (dapat dibalik). Secara formal, {𝑦𝑡 } dikatakan
invertible jika dapat direpresentasikan oleh proses dengan order-terbatas (finite-order) atau
proses autoregressive konvergen. Invertibilitas penting karena penggunaan ACF dan PACF
secara implisit mengasumsikan bahwa series/urutan {𝑦𝑡 } dapat direpresentasikan sebagai
model autoregressive. Sebagai demonstrasi, misal diketahui model simple 𝑀𝐴(1) sebagai
berikut:

𝑦𝑡 = 𝜀𝑡 − 𝛽1 𝜀𝑡−1 (2.45)

Sehingga jika |𝛽1 | < 1 ,

𝑦𝑡 /(1 − 𝛽1 𝐿) = 𝜀𝑡
𝑦𝑡 + 𝛽1 𝑦𝑡−1 + 𝛽12 𝑦𝑡−2 + 𝛽13 𝑦𝑡−3 + ⋯ = 𝜀𝑡 (2.46)

Jika |𝛽1 | < 1, maka persamaan (2.46) dapat diestimasi menggunakan metode Box-Jenkins.
Bagaimanapun, jika |𝛽1 | > 1, series/urutan {𝑦𝑡 } tidak dapat direpresentasikan oleh proses
AR orde-terbatas; sehingga tidak invertible. Lebih umum, untuk model ARMA yang
memiliki representasi AR yang konvergen, roots dari polinomial (1 + 𝛽1 𝐿 + 𝛽2 𝐿2 + ⋯ +
𝛽𝑞 𝐿𝑞 ) harus terletak di luar lingkaran. Perhatikan bahwa tidak ada yang tidak benar tentang
model non invertible. Series/urutan {𝑦𝑡 } yang secara tersirat dapat dijabarkan menjadi 𝑦𝑡 =
𝜀𝑡 − 𝜀𝑡−1 stasioner karena memiliki mean yang konstan dari waktu ke waktu (𝐸𝑦𝑡 =
𝐸𝑦𝑡−𝑠 = 0), konstan varians dari waktu ke waktu [𝑣𝑎𝑟(𝑦𝑡 ) = 𝑣𝑎𝑟(𝑦𝑡−𝑠 ) = 𝜎 2 (1 + 𝛽12 ) +
2𝜎 2 ], dan autokovarians 𝛾1 = −𝛽1 𝜎 2 dan yang lainnya 𝛾𝑠 = 0. Masalahnya terletak pada
teknik tersebut tidak memungkinkan untuk model seperti itu. Jika 𝛽1 = 1, persamaan (2.46)
akan menjadi

𝑦𝑡 + 𝑦𝑡−1 + 𝑦𝑡−2 + 𝑦𝑡−3 + 𝑦𝑡−4 + ⋯ = 𝜀𝑡

Jelasnya, autokorelasi dan autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−𝑠 tidak akan pernah
hilang.

Goodness of Fit

Model yang baik akan fit dengan baik terhadap data. Jelas, 𝑅 2 dan rata-rata jumlah kuadrat
residual merupakan ukuran goodness-of-fit dalam metode OLS. Masalah dalam ukuran ini
adalah bahwa ke-fit-an model akan meningkat sejalan dengan penambahan parameter dalam
model. Parsimoni menganjurkan menggunakan AIC dan/atau SBC karena lebih tepat dalam
mengukur ke-fit-an model secara keseluruhan. Dan juga, cermati/hati-hati mengenai
estimasi yang gagal menyatu dengan cepat. Kebanyakan packages software mengestimasi
parameter dari ARMA model menggunakan prosedur pencarian nonlinier. Jika proses
pencarian gagal untuk menyatu secara cepat, maka memungkinkan estimasi parameter
menjadi tidak stabil. Jika dalam keadaan seperti itu, menambah satu atau dua observasi
mampu mengubah hasil estimasi.

Postestimation Evaluation (Evaluasi Postestimasi)

Tahap ketiga dari metodologi Box-Jenkins terdapat pemeriksaan diagnostik. Praktik


yang umum dilakukan adalah dengan menggunakan plot residual untuk melihat outlier di
waktu yang mana dari model yang tidak fit dengan data. Praktik lain yang umum dilakukan
adalah dengan membentuk residual terstandarisasi dengan cara membagi tiap residual, 𝜀𝑡 ,
dengan estimasi standar deviasinya, 𝜎. Jika residualnya berdistribusi normal, maka kurang
dari 5% plot dari series 𝜀𝑡 /𝜎 akan terletak di luar batas -2 hingga +2. Jika residual
terstandarisasi terlihat lebih besar di beberapa waktu dibandingkan yang lain, hal ini
mengindikasikan/bukti dari perubahan struktural. Jika semua model ARMA yang masuk
akal menunjukkan bukti dari ke-fit-an model yang buruk selama porsi sampel yang cukup
panjang, maka dapat dipertimbangkan untuk menggunakan analisis intervensi, analisis
fungsi transfer, atau metode estimasi multivariate lainnya yang akan dibahas di bab yang
akan datang. Jika varians dari residual meningkat, maka transformasi logaritma mungkin
akan cocok. Alternative lainnya, mungkin dapat memodelkan kecenderungan dari varians
yang berubah menggunakan teknik ARCH yang dibahas di BAB 3.

Residual dari estimasi model series yang tidak berkorelasi merupakan hal yang
sangat penting. Adanya korelasi menyiratkan pergerakan sistematik dari series/urutan {𝑦𝑡 }
yang tidak diperhitungkan oleh koefisien ARMA yang disertakan dalam model. Oleh karena
itu, model tentative yang menghasilkan residual yang tidak acak harus dihilangkan dari
daftar pertimbangan model. Untuk mengecek korelasi dalam residual, bentuk ACF dan
PACF dari residual yang dihasilkan model estimasi. Gunakan persamaan (2.41) dan (2.42)
untuk menentukan apakah terjadi autokorelasi semua residual atau hanya autokorelasi
parsial yang secara statistik signifikan. Meskipun tidak ada tingkat signifikansi yang
dianggap “paling tepat”, maka waspadai jika model menghasilkan (1) beberapa korelasi
residual yang signifikan secara marginal dan (2) statistik-Q yang hampir tidak signifikan
pada tingkat signifikansi 10%. Dalam keadaan seperti itu, biasanya memungkinkan untuk
memformulasikan model dengan performa yang lebih baik.

Demikian pula, sebuah model dapat diestimasi hanya pada sebagian dari kumpulan
data. Model yang diestimasi kemu error dari hasil forecast berguna untuk membandingkan
kecukupan model alternatif. Model yang memiliki prediksi nilai out-of-sample yang buruk
akan di eliminasi. Detailnya dalam menyusun forecast/prediksi dari out-of-sample akan
dibahas di Subbab 9.

9. SIFAT-SIFAT PERAMALAN (PROPERTIES OF FORECASTS)

Mungkin pentingnya menggunakan model ARMA adalah untuk


memprediksi/meramalkan nilai dari series/urutan {𝑦𝑡 } yang akan datang. Untuk
mempersingkat bahasan, diasumsikan bahwa proses aktual dari men-generate data dan
realisasi dari {𝜀𝑡 } dan series {𝑦𝑡 } saat ini maupun yang lampau telah diketahui oleh peneliti.
Tahap pertama, pertimbangkan peramalan/forecast dari model 𝐴𝑅(1), 𝑦𝑡 = 𝑎0 + 𝑎1 𝑦𝑡−1 +
𝜀𝑡 . Dengan menambah satu periode waktu, diperoleh

𝑦𝑡+1 = 𝑎0 + 𝑎1 𝑦𝑡 + 𝜀𝑡+1

Jika koefisien 𝑎0 dan 𝑎1 diketahui, maka dapat dilakukan forecast 𝑦𝑡+1 bersyarat
dengan informasi yang tersedia pada periode t seperti

𝐸𝑡 𝑦𝑡+1 = 𝑎0 + 𝑎1 𝑦𝑡 (2.47)

dimana 𝐸𝑡 𝑦𝑡+1 merupakan cara singkat untuk menulis ekspektasi bersyarat dari 𝑦𝑡+1 dengan
informasi yang tersedia pada periode t. Secara formal dituliskan sebagai 𝐸𝑡 𝑦𝑡+1 =
𝐸(𝑦𝑡 , 𝑦𝑡−1 , 𝑦𝑡−2 , … , 𝜀𝑡 , 𝜀𝑡−1 , … ).

Dengan cara yang sama, karena 𝑦𝑡+2 = 𝑎0 + 𝑎1 𝑦𝑡+1 + 𝜀𝑡+2 , maka forecast dari 𝑦𝑡+2
bersyarat dengan informasi yang tersedia di periode t adalah

𝐸𝑡 𝑦𝑡+2 = 𝑎0 + 𝑎1 𝐸𝑡 𝑦𝑡+1

Dan dengan menggunakan persamaan (2.47)

𝐸𝑡 𝑦𝑡+2 = 𝑎0 + 𝑎1 (𝑎0 + 𝑎1 𝑦𝑡 )

Maka dari itu, forecast dari 𝑦𝑡+1 dapat digunakan untuk mengestimasi 𝑦𝑡+2 . Intinya
adalah bahwa forecast yang dibangun dapat digunakan untuk iterasi kedepannya
(forecast/perediksi yang dihasilkan dapat digunakan untuk memprediksi periode-periode
selanjutnya); nilai forecast dari 𝑦𝑡+𝑗 dapat digunakan untuk peramalan
memprediksi/peramalan 𝑦𝑡+𝑗+1. Karena 𝑦𝑡+𝑗+1 = 𝑎0 + 𝑎1 𝑦𝑡+1 + 𝜀𝑡+𝑗+1, maka secara
langsung akan diikuti

𝐸𝑡 𝑦𝑡+𝑗+1 = 𝑎0 + 𝑎1 𝐸𝑡 𝑦𝑡+𝑗+1 (2.48)

Anda mungkin juga menyukai