(Walter Enders)
CAKUPAN SUB-BAB:
E. FUNGSI AUTOKORELASI
F. FUNGSI AUTOKORELASI PARSIAL
G. SAMPEL AUTOKORELASI DERET STASIONER
H. BOX-JENKINS MODEL SELECTION
I. SIFAT-SIFAT PERAMALAN (PROPERTIES OF FORECASTS)
5. FUNGSI AUTOKORELASI
Autokovarians dan autokorelasi dari tipe yang ditemukan pada (2.18) menjadi alat yang
berguna dalam Box-Jenkins (1976) untuk mengidentifikasi dan mengestimasi model runtun
waktu (time series). Kita mengilustrasikan dengan mempertimbangkan empat contoh
penting: model AR(1), AR(2), MA(1), dan ARMA(1,1). Untuk model AR(1), 𝑦𝑡 = 𝑎0 +
𝑎1 𝑦𝑡−1 + 𝜀𝑡 , (2.14) menunjukkan
𝜎2
𝛾0 =
[1 − (𝑎1 )2 ]
𝜎 2 (𝑎1 )𝑠
𝛾𝑠 =
[1 − (𝑎1 )2 ]
Untuk membentuk autokorelasi dengan membagi 𝛾𝑠 oleh 𝛾0, kita menemukan bahwa
𝜌0 = 1, 𝜌1 = 𝑎1 , 𝜌2 = (𝑎1 )2 , … , 𝜌𝑠 = (𝑎1 )𝑠 . Untuk proses AR(1), kondisi yang
diperlukan untuk stasioneritas adalah |𝑎1 | < 1. Jadi, plot antar 𝜌𝑠 dengan 𝑠 – yang disebut
fungsi autokorelasi (ACF) atau korelogram – harus konvergen k enol secara geometris jika
deret tersebut stasioner. Jika 𝑎1 positif, konvergensi akan searah, dan jika 𝑎1 negatif,
autokorelasi akan mengikuti jalur osilasi yang diredam di sekitar nol. Dua grafik pertama
pada sisi kiri Gambar 2.2 menunjukkan fungsi autokorelasi secara teoritis untuk masing-
masing 𝑎1 = 0.7 dan 𝑎1 = −0.7.di sini, 𝜌0 tidak ditampilkan karena nilainya merupakan
kesatuan.
Gambar 2.2 Pola Teoritis ACF dan PACF
Sekarang pertimbangkan proses AR(2) yang lebih rumit dengan 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝑎2 𝑦𝑡−2 +
𝜀𝑡 . Kita menghilangkan intersep (𝑎0 ) karena tidak memiliki pengaruh pada ACF. Agar
proses orde kedua menjadi stasioner, kita tahu bahwa perlu untuk membatasi akar dari (1 −
𝑎1 𝐿 − 𝑎2 𝐿2 ) untuk berada di luar lingkaran unit. Di Bagian 4, kita menurunkan
autokovarians dari proses ARMA(2,1) dengan menggunakan metode koefisien tak tentu.
Sekarang, kita akan mengilustrasikan teknik alternatif dengan menggunakan persamaan
Yule-Walker. Kalikan persamaan difference kedua dengan 𝑦𝑡−𝑠 untuk 𝑠 = 0, 𝑠 = 1, 𝑠 =
2, … dan ambil bentuk harapannya sehingga terbentuk
𝛾0 = 𝑎1 𝛾1 + 𝑎2 𝛾2 + 𝜎 2 (2.25)
𝛾1 = 𝑎1 𝛾0 + 𝑎2 𝛾1 (2.26)
𝜌1 = 𝑎1 𝜌0 + 𝑎2 𝜌1 (2.28)
(𝑎1 )2
𝜌2 = + 𝑎2
(1 − 𝑎2 )
(𝑎1 )2 𝑎2 𝑎1
𝜌3 = 𝑎1 [ + 𝑎2 ] +
(1 − 𝑎2 ) (1 − 𝑎2 )
𝜌2 = (𝑎1 )2 /(1 − 𝑎2 ) + 𝑎2
Meskipun nilai dari 𝜌𝑠 sulit untuk diturunkan, kita dapat dengan mudah
mengkarakterisasi sifatnya. Mengingat solusi untuk 𝜌0 dan 𝜌1 , poin kunci yang perlu dicatat
adalah 𝜌𝑠 semua memenuhi persamaan perbedaan (2.29). Seperti dalam kasus persamaan
perbedaan orde kedua, solusinya mungkin berosilasi atau langsung. Perhatikan bahwa
kondisi stasioneritas untuk 𝑦𝑡 mengharuskan akar (roots) karakteristik (2.29) terletak di
dalam lingkaran unit. Oleh karena itu, barisan {𝜌𝑠 } harus konvergen. Korelogram untuk
proses AR(2) harus sedemikian rupa sehingga 𝜌0 = 1 dan 𝜌1 ditentukan oleh (2.28). Kedua
nilai ini dapat dilihat sebagai nilai awal untuk persamaan beda orde kedua (2.29).
Panel keempat di sisi kiri dari Gambar 2.2 menunjukkan ACF untuk proses 𝑦𝑡 =
0.7𝑦𝑡−1 − 0.49𝑦𝑡−2 + 𝜀𝑡 . Sifat dari berbagai 𝜌𝑠 langsung mengikuti persamaan homogen
𝑦𝑡 − 0.7𝑦𝑡−1 + 0.49𝑦𝑡−2 = 0. Akar (roots) diperoleh dari solusi untuk
𝛾0 (1 − 𝑎1 𝜌1 − 𝑎2 𝜌2 ) = 𝜎 2
𝜎2
𝛾0 = 𝑣𝑎𝑟(𝑦𝑡 ) = [(1 − 𝑎2 )/(1 + 𝑎2 )] ( )
(𝑎1 + 𝑎2 − 1)(𝑎2 − 𝑎1 − 1)
Selanjutnya perhatikan proses MA(1) 𝑦𝑡 = 𝜀𝑡 + 𝛽𝜀𝑡−1 . Sekali lagi, kita dapat memperoleh
persamaan Yule-Walker dengan mengalikan 𝑦𝑡 dengan setiap 𝑦𝑡−𝑠 dan menghitung
ekspektasi
dan
Oleh karena itu, membagi setiap 𝛾𝑠 dengan 𝛾0, dapat langsung terlihat bahwa ACF
hanya 𝜌0 = 1, 𝜌1 = 𝛽/(1 + 𝛽 2 ), dan 𝜌𝑠 = 0 untuk semua s > 1. Grafik ketiga di sisi kiri
dari Gambar 2.2 menunjukkan ACF untuk proses MA(1) 𝑦𝑡 = 𝜀𝑡 − 0.7𝜀𝑡−1. Sebagai latihan,
Anda harus menunjukkan bahwa ACF untuk proses MA(2) memiliki dua lonjakan dan
kemudian dipotong menjadi nol.
𝐸𝑦𝑡 𝑦𝑡−𝑠 = 𝑎1 𝐸𝑦𝑡−1 𝑦𝑡−𝑠 + 𝐸𝜀𝑡 𝑦𝑡−𝑠 + 𝛽1 𝐸𝜀𝑡−1 𝑦𝑡−𝑠 ⇒ 𝛾𝑠 = 𝑎1 𝛾𝑠−1 (2.33)
1 + 𝛽12 + 2𝑎1 𝛽1 2
𝛾0 = 𝜎
(1 − 𝑎12 )
(1 + 𝑎1 𝛽1 )(𝑎1 + 𝛽1 ) 2
𝛾1 = 𝜎
(1 − 𝑎12 )
Nilai p sebelumnya dapat diperlakukan sebagai kondisi awal yang memenuhi persamaan
Yule-Walker. Untuk lag ini, bentuk ACF ditentukan oleh persamaan karakteristik.
(1 + 0.49)(−0.7 − 0.7)
𝜌1 = = −0.8445
1 + 0.49 + 2(0.49)
𝜌8 = 0.070
Langkah 2: Hitung dua autokorelasi parsial pertama menggunakan (2.35) dan (2.36).
Karena itu,
𝜙11 = 𝜌1 = −0.8445
Langkah 3: Hitung semua 𝜙𝑠𝑠 yang tersisa secara iteratif menggunakan (2.37). Untuk
mencari 𝜙33 , perhatikan bahwa 𝜙21 = 𝜙11 − 𝜙22 𝜙11 = −1.204 dan bentuk
−1
2 2
= −0.262
Karena 𝜙3𝑗 = 𝜙2𝑗 − 𝜙33 𝜙2,2−𝑗 , maka 𝜙31=−1.315 dan 𝜙32 = −0.74. Karena itu,
𝜙44 = −0.173
Jika kita melanjutkan dengan cara ini, dimungkinkan untuk menunjukkan bahwa 𝜙55 =
−0.117, 𝜙66 = −0.081, 𝜙77 = −0.056 dan 𝜙88 = −0.039.
Dalam proses AR(1), 𝑦𝑡 dan 𝑦𝑡−2 berkorelasi meskipun 𝑦𝑡−2 tidak muncul secara langsung
dalam model. Korelasi antara 𝑦𝑡 dan 𝑦𝑡−2 (yaitu, 𝜌2 ) sama dengan korelasi antara 𝑦𝑡 dan
𝑦𝑡−1 (yaitu, 𝜌1 ) dikalikan dengan korelasi antara 𝑦𝑡−1 dan 𝑦𝑡−2 (yaitu, 𝜌1 lagi) sehingga
𝜌2 = (𝜌1 )2. Penting untuk dicatat bahwa semua korelasi tidak langsung tersebut hadir dalam
ACF dari setiap proses autoregresif. Sebaliknya, autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−𝑠
menghilangkan efek dari nilai intervensi 𝑦𝑡−1 melalui 𝑦𝑡−𝑠+1 .
Dengan demikian, di dalam proses AR(1), autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−2 sama
dengan nol. Cara paling sering untuk menemukan fungsi autokorelasi parsial yang pertama
membentuk seri {𝑦𝑡∗ } dengan mengurangi rata-rata dari seri tersebut (𝑖. 𝑒. , 𝜇) dari setiap
observasi untuk menentukan 𝑦𝑡∗ ≡ 𝑦𝑡 − 𝜇. Selanjutnya, membentuk autoregresi orde
pertama
∗
𝑦𝑡∗ = 𝜙11 𝑦𝑡−1 + 𝑒𝑡
Disini, symbol {𝑒𝑡 } digunakan karena proses kesalahan/error ini mungkin bukan
white noise.
Karena tidak ada nilai intervensi, 𝜙11 adalah autokorelasi dan autokorelasi parsial
antara 𝑦𝑡 dan 𝑦𝑡−1 . Sekarang, bentuk persamaan autoregresi orde kedua
∗ ∗
𝑦𝑡∗ = 𝜙21 𝑦𝑡−1 + 𝜙22 𝑦𝑡−2 + 𝑒𝑡
Disini, 𝜙22 adalah koefisien autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−2. Dengan kata
lain, 𝜙22 adalah hubungan antara 𝑦𝑡 dan 𝑦𝑡−2 mengendalikan untuk (i.e., "menghapus") efek
dari 𝑦𝑡−1 . Mengulangi proses ini untuk semua tambahan lag s menghasilkan fungsi
autokorelasi parsial (PACF). Dalam praktiknya, dengan ukuran sampel T, hanya T/4 lag yang
digunakan di dalam menentukan sampel PACF.
Karena sebagian besar paket komputer statistik melakukan transformasi ini, ada
sedikit kebutuhan untuk menguraikan prosedur komputasi. Namun, harus ditunjukkan
bahwa metode komputasi sederhana yang mengandalkan apa yang disebut persamaan Yule-
Walker itu tersedia. Seseorang dapat membentuk autokorelasi parsial dari autokorelasi
sebagai
𝜙11 = 𝜌1 (2.35)
𝜌𝑠 −∑𝑠−1
𝑗=1 𝜙𝑠−1,𝑗 𝜌𝑠−𝑗
𝜙𝑠𝑠 = , 𝑠 = 3,4,5, … (2.37)
1−∑𝑠−1
𝑗=1 𝜙𝑠−1,𝑗 𝜌𝑗
Untuk AR(p) proses, tidak ada korelasi langsung antara 𝑦𝑡 dan 𝑦𝑡−𝑠 untuk 𝑠 > 𝑝.
Oleh karena itu, untuk 𝑠 > 𝑝, semua nilai dari 𝜙𝑠𝑠 akan menjadi nol, dan PACF untuk murni
AR(p) proses seharusnya dipotong menjadi nol untuk semua lag yang lebih besar dari p. Ini
adalah fitur yang berguna dari PACF yang dapat membantu dalam identifikasi AR(p) model.
Sebaliknya, pertimbangkan PACF untuk proses MA(1): 𝑦𝑡 = 𝜀𝑡 + 𝛽𝜀𝑡−1 . Selama 𝛽 ≠ −1,
kita dapat menulis 𝑦𝑡 /(1 + 𝛽𝐿) = 𝜀𝑡 , yang kita ketahui memiliki representasi autoregresif
orde tak terbatas
Dengan demikian, PACF tidak akan lompat ke nol karena 𝑦𝑡 akan berkorelasi dengan
semua lag-nya sendiri. Sebaliknya, koefisien PACF menunjukkan pola peluruhan geometris.
Jika 𝛽 < 0, peluruhannya langsung, dan jika 𝛽 > 0, koefisien PACF berosilasi.
Lembar Kerja 2.2 mengilustrasikan prosedur yang digunakan dalam membangun
PACF untuk model ARMA(1, 1) yang ditunjukkan pada panel kelima di sisi kanan Gambar
2.2:
𝑦𝑡 = −0.7𝑦𝑡−1 + 𝜀𝑡 − 0.7𝜀𝑡−1
Lebih umum, PACF dari stasioner proses ARMA (p, q) pada akhirnya harus meluruh
menuju nol dimulai pada lag p. Pola peluruhan tergantung pada koefisien polynomial
(1 + 𝛽1 𝐿 + 𝛽2 𝐿2 + ⋯ + 𝛽𝑞 𝐿𝑞 ). Tabel 2.1 merangkum beberapa properti ACF dan PACF
untuk berbagai proses ARMA. Juga, grafik sisi kanan Gambar 2.2 menunjukkan fungsi
autokorelasi parsial dari lima proses yang ditunjukkan.
Untuk proses stasioner, poin-poin penting yang perlu diperhatikan adalah sebagai
berikut:
1. ACF dari ARMA (p, q) proses akan mulai meluruh setelah lag q. Setelah lag q,
koefisien ACF (i.e., 𝜌𝑖 ) akan memenuhi beda persamaan (𝜌𝑖 = 𝛼1 𝜌𝑖−1 +
𝛼2 𝜌𝑖−2 + ⋯ + 𝛼𝑝 𝜌𝑖−𝑝 ). Karena akar karakteristik berada di dalam lingkaran
satuan, autokorelasi akan meluruh setelah lag q. Selain itu, pola koefisien
autokorelasi akan meniru yang disarankan oleh akar karakteristik.
2. PACF dari ARMA (p, q) proses akan mulai meluruh setelah lag p. Setelah lag p,
koefisien PACF (i.e., 𝜙𝑠𝑠 ) akan meniru koefisien ACF dari model 𝑦𝑡 /(1 + 𝛽1 𝐿 +
𝛽2 𝐿2 + ⋯ + 𝛽𝑞 𝐿𝑞 ).
MA(1): 𝛽 > 0 Lonjakan positif pada lag 1. Peluruhan berosilasi: 𝜙11 > 0
𝜌𝑠 = 0 𝑢𝑛𝑡𝑢𝑘 𝑠 ≥ 2
MA(1): 𝛽 < 0 Lonjakan negatif pada lag 1. Peluruhan geometris: 𝜙11 < 0
𝜌𝑠 = 0 𝑢𝑛𝑡𝑢𝑘 𝑠 ≥ 2
Kita dapat mengilustrasikan kegunaan fungsi ACF dan PACF menggunakan model
𝑦𝑡 = 𝛼0 + 0.7𝑦𝑡−1 + 𝜀𝑡 . Jika kita membandingkan dua grafik teratas pada Gambar 2.2, ACF
menunjukkan peluruhan monoton dari autokorelasi sementara PACF menunjukkan lonjakan
tunggal pada lag 1. Misalkan seorang peneliti mengumpulkan data sampel dan memplot ACF
dan PACF. Jika pola aktual dibandingkan dengan pola teoretis, peneliti mungkin mencoba
memperkirakan data menggunakan model AR(1). Sejalan dengan itu, jika ACF
menunjukkan lonjakan tunggal dan PACF menunjukkan peluruhan monoton (lihat grafik
ketiga untuk model 𝑦𝑡 = 𝜀𝑡 − 0.7𝜀𝑡−1 ), peneliti dapat mencoba model MA(1).
Dalam praktiknya, rata-rata teoretis, varians, dan autokorelasi dari suatu deret tidak
diketahui oleh peneliti. Mengingat bahwa suatu deret stasioner, kita dapat menggunakan
mean sampel, varians, dan autokorelasi untuk memperkirakan parameter dari proses
pembuatan data yang sebenarnya. Biarkanlah terjadi begitu T pengamatan berlabel 𝑦1
melalui 𝑦𝑇 . Kita dapat membiarkan 𝑦, 𝜎̂ 2 , 𝑑𝑎𝑛 𝑟𝑠 menjadi perkiraan dari 𝜇, 𝜎 2 , 𝑑𝑎𝑛 𝜌𝑠 ,
masing-masing dimana
2
𝜎̂ 2 = (1/𝑇) ∑𝑇𝑡=1 (𝑦𝑡 − 𝑦) (2.39)
∑𝑇
𝑡=𝑠+1 (𝑦𝑡 −𝑦)(𝑦𝑡−𝑠 −𝑦)
𝑟𝑠 = 2 (2.40)
∑𝑇
𝑡=1 (𝑦𝑡 −𝑦)
Fungsi autokorelasi sampel [i.e., ACF yang diturunkan dari (2.40)] dan sampel
PACF dapat dibandingkan dengan berbagai fungsi teoretis untuk membantu
mengidentifikasi sifat sebenarnya dari proses pembuatan data. Box dan Jenkins (1976)
membahas distribusi nilai sampel dari 𝑟𝑠 di bawah nol itu 𝑦𝑡 adalah stasioner dengan
error/kesalahan terdistribusi normal. Mengizinkan 𝑣𝑎𝑟(𝑟𝑠 ) untuk menunjukkan varians
sampling dari 𝑟𝑠 , mereka memperoleh
𝑣𝑎𝑟(𝑟𝑠 ) = 𝑇 −1 untuk s = 1
= 𝑇 −1 (1 + 2 ∑𝑠−1
𝑗=1 𝑟𝑗2 ) untuk s > 1 (2.41)
jika nilai sebenarnya dari 𝑟𝑠 = 0 [i.e., jika proses pembuatan data yang sebenarnya adalah
MA(s - 1) proses]. Selain itu, dalam sampel besar (i.e., untuk nilai besar T), 𝑟𝑠 akan
terdistribusi normal dengan rata-rata sama dengan nol. Untuk koefisien PACF, di bawah
hipotesis nol dari model AR(p) (i.e., di bawah nol itu semua 𝜙𝑝+𝑖,𝑝+𝑖 adalah nol), varians
dari 𝜙̂𝑝+𝑖,𝑝+𝑖 adalah sekitar 1/T (Lihat Bagian 2.3 dari Panduan Tambahan).
Dalam latihan, kita bisa menggunakan contoh sampel ini untuk membuat sampel
autokorelasi dan fungsi autokorelasi parsial dan tes untuk signifikansi menggunakan ( 2.41
). Sebagai contoh, jika kita menggunakan tingkat kepercayaan 95 persen, dan nilai
𝑟1melebihi 2𝑇 −1/2, mungkin untuk menolak hipotesis nol bahwa autokorelasi orde pertama
secara statistik tidak berbeda dari 0. Menolak hipotesis ini berarti menolak proses
𝑀𝐴(𝑠 − 1) = 𝑀𝐴(0) dan menerima alternatif q > 0. Selanjutnya, mencoba 𝑠=
2; 𝑣𝑎𝑟(𝑟2 ) = (1 + 2𝑟12 )/𝑇. Jika 𝑟1 = 0,5 𝑑𝑎𝑛 𝑇 = 100, varians 𝑟2 adalah 0,0015 dan
standar deviasinya sekitar 0,123. Jadi jika 𝑟2 > 2(0,123), mungkin untuk menolak hipotesis
𝑟2 = 0. Di sini, menolak hipotesis nol berarti menerima alternatif bahwa q > 1. Mengulang
nilai s yang lain dapat membantu dalam mengidentifikasi urutan proses. Jumlah maksimum
sampel autokorelasi dan autokorelasi parsial yang digunakan biasanya 𝑇/4.
Dalam kelompok besar autokorelasi, beberapa akan melebihi dua standar deviasi sebagai
hasil murni dari kesempatan meskipun nilai sebenarnya dari data yang diproses adalah nol.
Nilai statistik Q dapat digunakan untuk menguji apakah sekelompok autokorelasi berbeda
secara signifikan dari nol. Box dan Pierce (1970) menggunakan sampel autokorelasi untuk
membentuk statistik
𝑠
𝑄 = 𝑇 ∑ 𝑟𝑘2
𝑘=1
Permasalahan dengan statistik Box-Pierce adalah bahwa statistik ini akan bekerja dengan
buruk bahkan dalam sampel yang cukup besar. Ljung dan Box (1978) mendapatkan
performa superior pada sampel kecil dengan modifikasi statistik Q yang dihitung
𝑄
𝑠
𝑟𝑘2
= 𝑇(𝑇 + 2) ∑ (2.42)
𝑇−𝑘
𝑘=1
Jika nilai Q dair 2.42 melebihi nilai kritis chi-square dengan derajat bebas s, maka setidaknya
ada satu nilai 𝑟𝑘 ≠ 0. Statistik Q Box-Pierce dan Ljung dan Box juga dapat digunakan untuk
memeriksa jika residual dari ARMA(p,q) adalah white noise. Tetapi, ketika korelasi s dari
ARMA(p,q) terbentuk, derajat bebas jadi berkurang sesuai banyaknya koefisien. Oleh
karena itu, menggunakan residual ARMA(p,q), Q punya chi square dengan derajat bebas s-
p-q ( jika ada konstanta jadi s-p-q-1 ).
𝐴𝐼𝐶 = 𝑇𝑙𝑛(𝑆𝑆𝑅) + 2𝑛
Saat menggunakan model yang ada variabel lag, beberapa observasi hilang. Agar dapat
membandingkan dengan model alternatif, T harus tetap. Jika tidak, anda akan
membandingkan performa model dengan periode waktu yang berbeda. Lebih lagi,
penurunan T memiliki efek langsung mengurangi AIC dan SBC; tujuannya adalah bukan
memilih model karena memiliki jumlah pengamatan yang paling sedikit. Misalnya dengan
100 data, estimasi AR(1) dan AR(2) hanya menggunakan 98 pengamatan terakhir dalam
setiap estimasi. Bandingkan kedua model menggunakan T = 98.
Idealnya, AIC dan SBC akan sekecil mungkin ( perhatikan bahwa keduanya bisa negatif ).
Saat kecocokan model meningkat, AIC dan SBC akan mendekati −∞. Kita dapat
menggunakan kriteria ini untuk membantu dalam memilih model yang terbaik; model A
dikatakan lebih cocok dari model B jika AIC (atau SBC) untuk A lebih kecil dari model B.
Dalam menggunakan kriteria untuk membandingkan model, kita harus estimasi sampel pada
periode yang sama sehingga mereka akan sebanding. Untuk masing-masing, meningkatkan
jumlah regressor meningkatkan n tetapi harus memiliki efek mengurangi jumlah residual
kuadrat (SSR). Jadi, jika regressor tidak memiliki kekuatan penjelas, menambahkannya ke
model akan menyebabkan kedua AIC dan SBC meningkat. Karena ln(T) akan lebih besar
dari 2, SBC akan selalu memilih model yang lebih parsimoni daripada AIC; biaya marjinal
menambahkan regressor lebih besar dengan SBC daripada dengan AIC.
Fitur yang sangat berguna dalam kriteria pemilihan model adalah untuk membandingkan
model yang tidak bersarang. Misalnya, Anda ingin membandingkan model AR(2) dengan
model MA (3). Tidak ada yang merupakan bentuk terbatas dari yang lain. Anda tidak ingin
memperkirakan model ARMA(2, 3) dan melakukan uji-F untuk menentukan apakah 𝑎1 =
𝑎2 = 0 atau 𝛽1 = 𝛽2 = 0. Seperti didiskusikan pada lampiran 2.1, estimasi model ARMA
memerlukan metode solusi komputer. Jika model AR(2) dan MA(3) layak, algoritma
pencarian nonlinier memerlukan estimasi model ARMA(2, 3) tidak akan konvergen ke suatu
solusi. Lebih lagi, nilai 𝑦𝑡−1 dan 𝑦𝑡−2 berkorelasi dengan 𝜀𝑡−1 , 𝜀𝑡−2 , 𝑑𝑎𝑛 𝜀𝑡−3 .
Fitur yang sangat bermanfaat dari kriteria pemilihan model adalah untuk
membandingkan model yang tidak bersarang. Misalnya, ingin membandingkan model
AR(2) dan model MA(3). Kedua model tersebut bukan merupakan bentuk terbatas dari yang
lain. Anda tidak ingin mengestimasi model ARMA(2,3) dan melakukan Uji-F untuk
menentukan apakah 𝛼1 = 𝛼2 = 0 atau apakah 𝛽1 = 𝛽2 = 0. Seperti yang sudah dibahas
dalam lampiran 2.1, estimasi model ARMA memerlukan metode solusi berbasis komputer.
Jika Model AR(2) dan MA(3) masuk akal, algoritma pencarian nonlinier yang diperlukan
untuk memperkirakan model ARMA(2,3) tidak mungkin konvergen ke solusi. Selain itu
nilai 𝑦𝑡−1 dan 𝑦𝑡−2 berkorelasi dengan nilai 𝜀𝑡−1 , 𝜀𝑡−2 , dan 𝜀𝑡−3 . Ini sangat mungkin kedua
hipotesis dapat diterima (atau di tolak). Namun, sangat mudah untuk membandingkan
estimasi model AR(2) dan MA(3) menggunakan AIC atau SBC.
Dari dua kriteria tersebut, SBC memiliki sifat sampel besar yang unggul. Biarkan
ordo sebenarnya dari proses pembentukkan data menjadi (𝑝∗ , 𝑞 ∗ ) dan misalkan kita
menggunakan AIC dan SBC untuk mengestimasi semua model dari ordo (𝑝, 𝑞) dimana (𝑝 ≥
𝑝∗ ) dan (𝑞 ≥ 𝑞 ∗ ). Baik AIC dan SBC akan memilih model dari ordo yang lebih besar atau
sama dengan (𝑝∗ , 𝑞 ∗ ) karena ukuran sampel mendekati tak terhingga, Namun, SBC
konsisten asimtotik sementara AIC bias terhadap pemilihan model yang overparameter.
Namun, pada sampel kecil, AIC dapat bekerja lebih baik daripada SBC. Anda dapat cukup
yakin dengan hasil jika AIC dan SBC memilih model yang sama. Jika AIC dan SBC memilih
model yang berbeda, maka diperlukan kehati-hatian. Karena SBC memilih model yang
parsimoni, perlu diperiksa untuk menentukan apakah residual nya tampak white noise.
Karena AIC dapat memilih model yang overparameter, t-statistik dari semua koefisien harus
signifikan pada level konvesional. Sejumlah pameriksaan diagnostic lain yang dapat
digunakan untuk membandingkan model alternatif yang disajikan pada Section 8 dan 9.
Namun, hal ini bijaksana untuk mempertahankan sketisisme yang sehat dari model yang
diperkirakan. Dengan banyak data yang dikumpulkan, tidak mungkin menemukan satu
model yang jelas-jelas mendominasi semua model lainnya. Tidak ada salahnya dengan
melaporkan hasil dan peramalan dengan menggunakan estimasi alternatif.
dimana 𝑛 dan 𝑇 didefinisikan seperti yang diatas, dan 𝐿 adalah nilai maksimal dari fungsi
log likelihood.
Mari gunakan contoh spesifik untuk melihat bagaimana fungsi autokorelasi sampel
dan fungsi autokorelasi parsial bisa digunakan sebagai bantuan dalam mengidentifikasi
model ARMA. Sebuah program komputer digunakan untuk menggamber 100 bilangan acak
yang terdistribusi normal dengan varians teoritis sama dengan satu. Variabel acak 𝜀𝑡 , dimana
𝑡 adalah nilai dari 1 hingga 100.
Gambar 2.3 ACF dan PACF untuk Dua Proses Simulasi
Dalam praktiknya, tidak pernah diketahui proses pembuatan data yang sebenarnya,
Sebagai latihan, misalkan disajikan 100 nilai sampel dan diminta untuk mengungkap proses
yang sebenarnya menggunakan metode Box-Jenkins. Pertama, membandingkan sampel
ACF dan PACF dengan model teoritis yang beragam. Pola peluruhan ACF dan lonjakan
besar tunggal pada lag 1 sampel PACF menunjukkan model AR(1). Tiga autokorelasi
pertama adalah 𝑟1 = 0.74, 𝑟2 = 0.58, dan 𝑟3 = 0.47. [Perhatikan bahwa ini sedikit lebih
besar dari nilai teoritis 0.7 0.49 (0.72 = 0.49), dan 0.3434]. Dalam PACF, terdapat
lonjakan yang cukup besar sebesar 0.74 pada lag 1, dan semua autokorelasi parsial lainnya
(kecuali lag 12) sangat kecil.
1
Dibawah hipotesis nol dari proses MA(0), standar deviasi 𝑟1 adalah 𝑇 −2 = 0.1.
Karena nilai sampel 𝑟1 = 0.74 lebih dari tujuh standar deviasi dari nol, maka dapat menolak
hipotesis nol bahwa 𝑟1 sama dengan nol. Standar deviasi 𝑟2 diperoleh dengan menerapkan
(2.41) pada data sampling dimana 𝑠 = 2
1 + 2(0.74)2
𝑣𝑎𝑟(𝑟2 ) = = 0.021
100
1
Karena (0.021)2 = 0.1449, nilai sampel dari 𝑟2 lebih dari tiga standar deviasi dari
nol; pada tingkat signifikansi konvensional, kita dapat menolak hipotesis nol apabila 𝑟2
sama dengan nol. Kita juga dapat menguji signifikansi nilai-nilai lain dari autokorelasi.
Seperti yang kita lihat pada panel(b) pada gambar, selain 𝜙11 , semua autokorelasi
1
parsial (kecuali lag 12) kurang dari 2𝑇 −2 = 0.2. Peluruhan dari ACF dan lonjakan tunggal
PACF memberikan kesan yang kuat dari model autoregressive orde pertama. Namun
demikian, jika kita tidak tahu proses sebenarnya yang mendasari dan menggunakan data
bulanan, kita mungkin akan dikhawatirkan oleh autokorelasi parsial yang signifikan pada
lag ke 12. Lagi pula, dengan data bulanan, kita mungkin dapat mengharapkan beberapa
hubungan langsung antara 𝑦𝑡 dengan 𝑦𝑡−12 .
Meskipun kita tahu bahwa data sebenarnya merupakan hasil dari proses AR(1), itu
mencerahkan untuk membandingkan estimasi atau perkiraan dari dua model yang berbeda.
Misalkan kita mengestimasikan model AR(1) dan mencoba untuk mendapatkan lonjakan
(spike) pada lag ke 12 dengan koefisien MA. Jadi, kita dapat mempertimbangkan dua
model tentatif.
Model 1: 𝑦𝑡 = 𝑎1 𝑦𝑡−1 + 𝜀𝑡
Tabel 2.2 melaporkan hasil dari dua estimasi. Koefisien dari model 1 memenuhi
kondisi stabilitas |𝑎1 | < 1 dan memiliki standar error yang rendah (terkait dengan t-
statistik untuk nol lebih dari 12). Sebagai pemeriksaan diagnostik yang berguna, kami
membuat plot antara korelogram dari residual yang fit pada model pada gambar 2.4. Q-
Statistics dari residual ini menunjukkan bahwa masing-masing autokorelasi kurang dari
dua standar deviasi dari nol. Ljung-Box Q-statistik dari residual ini menunjukkan bahwa,
sebagai kelompok, lag 1 hingga 8, 1 hingga 16, dan 1 hingga 24 tidak signifikan berbeda
dari nol. Ini adalah bukti kuat bahwa model AR(1) cocok dengan data. Oleh karena itu, jika
residual autokorelasi signifikan, model AR(1) tidak akan menggunakan semua informasi
yang tersedia tentang pergerakan pada deret {𝑦𝑡 }. Sebagai contoh, kita menginginkan
untuk memprediksi 𝑦𝑡+1 dikondisikan pada semua informasi yang tersedia dan termasuk
periode t. Dengan model 1, nilai dari 𝑦𝑡+1 adalah 𝑦𝑡+1 = 𝛼1 𝑦𝑡 + 𝜀𝑡+1 . Oleh karena itu,
prediksi dari model 1 adalah 𝛼1 𝑦𝑡 . Jika residual autokorelasi signifikan, prediksi ini tidak
akan mengambil semua set informasi yang tersedia.
Latihan 8 di akhir bab mencakup berbagai estimasi menggunakan seri ini. Seri ini
dilambangkan dengan Y1 pada file SIM2.XLS. Dalam latihan ini, anda diminta untuk
menunjukkan bahwa model AR(1) bekerja lebih baik daripada beberapa spesifikasi
alternatif.
Deret kedua {𝑦𝑡 } pada file SIM2.XLS terbentuk untuk mengilustrasikan estimasi
dari ARMA (1,1). Diberikan 100 nilai berdistribusi normal dari {𝜀𝑡 }. 100 nilai {𝑦𝑡 } tersebut
digenerate menggunakan
𝑦𝑡 = −0.7𝑦𝑡−1 + 𝜀𝑡 − 0.7𝜀𝑡−1
Baik sampel ACF maupun PACF dari data yang disimulasikan (lihat set kedua dari
grafik pada gambar 2.3) kira-kira setara dengan model teoritis yang ditunjukkan pada
gambar 2.2. Namun, jika proses pembuatan data yang sebenarnya tidak diketahui, peneliti
mungkin akan mengkhawatirkan tentang perbedaan tertentu. Model AR(2) dapat
menghasilkan sampel ACF dan PACF mirip dengan yang ada pada gambar. Tabel 2.3
melaporkan hasil estimasi data menggunakan tiga model berikut
Catatan :
² Ljung-Box Q-statistik dari residual model yang dipasang. Tingkat signifikansi berada
dalam tanda kurung.
³ Untuk komparabilitas, nilai AIC dan SBC dilaporkan untuk estimasi yang hanya
menggunakan observasi 3 sampai 100. Jika AR(1) diperkirakan menggunakan 99
pengamatan, AIC dan SBC masing-masing adalah 502,3 dan 504,9. Jika ARMA(1, 1)
diestimasi menggunakan 99 observasi, AIC dan SBC masing-masing adalah 476,6 dan 481,1
Dalam memeriksa Tabel 2.3, perhatikan bahwa semua nilai taksiran a sangat
signifikan; masing-masing nilai perkiraan setidaknya delapan standar deviasi dari nol. Jelas
bahwa model AR(1) tidak tepat. Q-statistik untuk model 1 menunjukkan bahwa ada
autokorelasi yang signifikan dalam residual. Perkiraan ARMA(1, 1) model tidak menderita
masalah ini. Selain itu, baik AIC dan SBC memilih model 2 di atas model 1.
Jenis penalaran yang sama menunjukkan bahwa model 2 lebih disukai daripada
model 3. Catatan bahwa, untuk setiap model, koefisien yang diestimasi sangat signifikan dan
titik perkiraan menyiratkan konvergensi. Meskipun Q-statistik pada 24 lag menunjukkan
bahwa dua model tidak menderita residual yang berkorelasi, Q-statistik pada 8 lag
menunjukkan korelasi serial dalam residual model 3. Dengan demikian, model AR(2) tidak
menangkap dinamika jangka pendek, serta model ARMA(1, 1). Perhatikan juga bahwa AIC
dan SBC keduanya memilih model 2.
𝑦𝑡 = 0,7𝑦𝑡−1 − 0,49𝑦𝑡−2 + 𝜀𝑡
Perhatikan autokorelasi besar pada lag 16 dan autokorelasi parsial yang besar pada
lag 14 dan 17. Mengingat cara proses disimulasikan, keberadaan autokorelasi ini adalah
karena tidak lebih dari kesempatan. Namun, seorang ekonometrika tidak menyadari dari
proses pembuatan data yang sebenarnya mungkin khawatir tentang autokorelasi ini.
Perkiraan model AR(2) (dengan t-statistik dalam tanda kurung) adalah
𝑦𝑡 = 0,692𝑦𝑡−1 − 0,481𝑦𝑡−2 AIC = 219,87, SBC = 225,04
(7,73) (-5,37)
Secara keseluruhan, model tampaknya memadai. Namun, dua koefisien AR(2) tidak
dapat menangkap korelasi pada lag yang sangat panjang. Sebagai contoh autokorelasi parsial
residual untuk lag 14 dan 17 keduanya lebih besar dari 0,2 secara nilai absolut. Statistik
Ljung–Box yang dihitung untuk 16 lag adalah 24,6248 (yang signifikan pada tingkat 0,038).
Pada titik ini, mungkin tergoda untuk mencoba memodelkan korelasi di 16 lag dengan
memasukkan istilah rata-rata bergerak 𝛽16 𝜀𝑡−16 . Estimasi seperti itu menghasilkan²
Pemeriksaan model yang berguna adalah dengan membagi sampel menjadi dua
bagian. Jika suatu koefisien adalah terdapat dalam proses pembuatan data, pengaruhnya
harus dilihat di kedua subsampel. Jika deret yang disimulasikan dibagi menjadi dua bagian,
ACF dan PACF menggunakan observasi 50 hingga 100 :
Seperti yang Anda lihat, ukuran autokorelasi parsial pada lag 14 dan 17 berkurang.
Sekarang, memperkirakan model AR(2) murni pada bagian kedua dari sampel ini
menghasilkan
𝑦𝑡 = 0,714𝑦𝑡−1 − 0,538𝑦𝑡−2
(5,92) (-4,47)
Perkiraan model AR(1), ARMA(1, 1), dan AR(2) di bagian sebelumnya menggambarkan
strategi Box-Jenkins (1976) untuk pemilihan model yang tepat. Box dan Jenkins
mempopulerkan metode tiga tahap yang bertujuan untuk memilih model yang sesuai untuk
tujuan memperkirakan dan meramalkan deret waktu univariat. Dalam identifikasi tahap,
peneliti secara visual memeriksa plot waktu dari seri, fungsi autokorelasi, dan fungsi
korelasi parsial. Membuat plot jalur {𝑦𝑡 } urutan memberikan informasi yang berguna
mengenai outlier, nilai yang hilang, dan jeda struktural dalam datanya. Variabel nonstasioner
mungkin memiliki tren yang jelas atau tampak berkelok-kelok tanpa mean atau varians
jangka panjang yang konstan.
Nilai yang hilang dan outlier dapat diperbaiki pada saat ini. Pada suatu waktu, praktik standar
adalah membedakan seri apa pun terlebih dahulu dianggap tidak stasioner. Saat ini, ada
banyak literatur tentang formal prosedur untuk memeriksa ketidakstasioneran. Kami
menunda diskusi ini sampai Bab 4 dan asumsikan bahwa kita bekerja dengan data stasioner.
Perbandingan sampel ACF dan PACF dengan berbagai proses ARMA teoretis mungkin
menyarankan beberapa model yang masuk akal. Pada tahap estimasi, masing-masing model
tentatif fit, dan berbagai koefisien 𝑎𝑖 dan 𝛽𝑖 diperiksa. Pada tahap kedua ini, tujuannya adalah
untuk memilih stasioner dan model sederhana yang memiliki kecocokan yang baik. Tahap
ketiga melibatkan pemeriksaan diagnostic untuk memastikan bahwa residual dari model
yang diperkirakan meniru proses kebisingan putih (white-noise)
Parsimony
Ide mendasar dalam pendekatan Box–Jenkins adalah prinsip sederhana. Sederhana (artinya
jarang atau kikir) harus menjadi sifat kedua bagi para ekonom. Memasukkan koefisien
tambahan tentu akan meningkatkan kecocokan (misalnya, nilai 𝑅 2 akan meningkat) dengan
biaya pengurangan derajat kebebasan. Box dan Jenkins berpendapat bahwa model sederhana
menghasilkan prakiraan yang lebih baik daripada model overparameterisasi. Model
sederhana cocok dengan data, baik tanpa memasukkan koefisien yang tidak perlu. Tentu,
peramal tidak ingin memproyeksikan koefisien yang diperkirakan buruk ke masa depan.
Tujuannya adalah untuk memperkirakan proses pembuatan data yang sebenarnya tetapi tidak
untuk menentukan proses yang tepat. Tujuan dari parsimony menyarankan untuk
menghilangkan koefisien MA(12) di simulasi model AR(1) di atas.
Dalam memilih model yang tepat, ekonometrika perlu menyadari bahwa beberapa
model yang berbeda mungkin memiliki sifat yang sama. Sebagai contoh ekstrim, perhatikan
bahwa
Sebagai contoh paling ekstrem, misal diberikan model AR(1) adalah 𝑦𝑡 = 0.5𝑦𝑡−1 +
𝜀𝑡 ekuivalen dengan moving average order tak terhingga yang direpresentasikan dengan
𝑦𝑡 = 𝜀𝑡 + 0.5𝜀𝑡−1 + 0.25𝜀𝑡−2 + 0.125𝜀𝑡−3 + 0.0625𝜀𝑡−4 + ⋯. Dari sebagian besar
sampel, pendekatan 𝑀𝐴(∞) dengan menggunakan model 𝑀𝐴(2) atau 𝑀𝐴(3) akan
memberikan hasil yang sangat fit. Bagaimanapun, model 𝐴𝑅(1) merupakan model yang
lebih parsimoni dan paling dianjurkan. Sebagai kuis, tunjukkan bahwa model 𝐴𝑅(1)
merupakan representasi yang ekuivalen dari 𝑦𝑡 = 0.25𝑦𝑡−1 + 0.5𝜀𝑡−1 + 𝜀𝑡 .
Selain itu, waspadai masalah faktor umum. Misalkan kita ingin menyesuaikan model
ARMA(2, 3)
Jika kalian telah melewati kuis yang sebelumnya, kalian dapat mengetahui bahwa
(1 − 0.25𝐿2 )𝑦𝑡 = (1 + 0.5𝐿)𝜀𝑡 ekuivalen terhadap (1 + 0.5𝐿)(1 − 0.5𝐿)𝑦𝑡 = (1 +
0.5𝐿)𝜀𝑡 sehingga 𝑦𝑡 = 0.5𝑦𝑡−1 + 𝜀𝑡 . Dalam praktiknya, polinomial tidak dapat di faktorkan
secara tepat, namun faktornya serupa. Kalian harus mencoba lebih banyak bentuk yang
parsimoni.
Untuk memastikan bahwa model parsimoni, variasi 𝑎𝑖 dan 𝛽𝑖 harus memiliki nilai
statistik-t sebesar 2 atau lebih (jadi tiap koefisien akan secara signifikan berbeda dari nol
pada tingkat signifikansi 5%). Selain itu, koefisiennya tidak boleh berkorelasi secara kuat
satu sama lain. Koefisien yang memiliki kolinieritas yang tinggi akan tidak stabil; biasanya,
satu atau lebih dieliminasi dari model tanpa mengurangi performa dari peramalan/forecast.
Teori distribusi yang mendasari penggunaan sampel ACF dan PACF sebagai
pendekatan terhadap proses true data-generating mengasumsikan bahwa series/urutan {𝑦𝑡 }
stasioner. Selain itu, statistik-t dan statistik-Q juga mengasumsikan bahwa data stasioner.
Estimasi dari koefisien-koefisien autoregressive harus konsisten terhadap asumsi tersebut.
Oleh karena itu, perlu dicurigai apabila nilai estimasi 𝑎1 model 𝐴𝑅(1) mendekati satu. Untuk
model 𝐴𝑅𝑀𝐴(2, 𝑞), karakteristik akar/roots dari estimasi polinomial (1 − 𝑎1 𝐿 − 𝑎2 𝐿2 )
harus berada di luar lingkaran unit.
Seperti yang dibahas secara lebih rinci dalam Appendix 2.1, pendekatan Box-Jenkins
juga mengharuskan model yang invertible (dapat dibalik). Secara formal, {𝑦𝑡 } dikatakan
invertible jika dapat direpresentasikan oleh proses dengan order-terbatas (finite-order) atau
proses autoregressive konvergen. Invertibilitas penting karena penggunaan ACF dan PACF
secara implisit mengasumsikan bahwa series/urutan {𝑦𝑡 } dapat direpresentasikan sebagai
model autoregressive. Sebagai demonstrasi, misal diketahui model simple 𝑀𝐴(1) sebagai
berikut:
𝑦𝑡 = 𝜀𝑡 − 𝛽1 𝜀𝑡−1 (2.45)
𝑦𝑡 /(1 − 𝛽1 𝐿) = 𝜀𝑡
𝑦𝑡 + 𝛽1 𝑦𝑡−1 + 𝛽12 𝑦𝑡−2 + 𝛽13 𝑦𝑡−3 + ⋯ = 𝜀𝑡 (2.46)
Jika |𝛽1 | < 1, maka persamaan (2.46) dapat diestimasi menggunakan metode Box-Jenkins.
Bagaimanapun, jika |𝛽1 | > 1, series/urutan {𝑦𝑡 } tidak dapat direpresentasikan oleh proses
AR orde-terbatas; sehingga tidak invertible. Lebih umum, untuk model ARMA yang
memiliki representasi AR yang konvergen, roots dari polinomial (1 + 𝛽1 𝐿 + 𝛽2 𝐿2 + ⋯ +
𝛽𝑞 𝐿𝑞 ) harus terletak di luar lingkaran. Perhatikan bahwa tidak ada yang tidak benar tentang
model non invertible. Series/urutan {𝑦𝑡 } yang secara tersirat dapat dijabarkan menjadi 𝑦𝑡 =
𝜀𝑡 − 𝜀𝑡−1 stasioner karena memiliki mean yang konstan dari waktu ke waktu (𝐸𝑦𝑡 =
𝐸𝑦𝑡−𝑠 = 0), konstan varians dari waktu ke waktu [𝑣𝑎𝑟(𝑦𝑡 ) = 𝑣𝑎𝑟(𝑦𝑡−𝑠 ) = 𝜎 2 (1 + 𝛽12 ) +
2𝜎 2 ], dan autokovarians 𝛾1 = −𝛽1 𝜎 2 dan yang lainnya 𝛾𝑠 = 0. Masalahnya terletak pada
teknik tersebut tidak memungkinkan untuk model seperti itu. Jika 𝛽1 = 1, persamaan (2.46)
akan menjadi
Jelasnya, autokorelasi dan autokorelasi parsial antara 𝑦𝑡 dan 𝑦𝑡−𝑠 tidak akan pernah
hilang.
Goodness of Fit
Model yang baik akan fit dengan baik terhadap data. Jelas, 𝑅 2 dan rata-rata jumlah kuadrat
residual merupakan ukuran goodness-of-fit dalam metode OLS. Masalah dalam ukuran ini
adalah bahwa ke-fit-an model akan meningkat sejalan dengan penambahan parameter dalam
model. Parsimoni menganjurkan menggunakan AIC dan/atau SBC karena lebih tepat dalam
mengukur ke-fit-an model secara keseluruhan. Dan juga, cermati/hati-hati mengenai
estimasi yang gagal menyatu dengan cepat. Kebanyakan packages software mengestimasi
parameter dari ARMA model menggunakan prosedur pencarian nonlinier. Jika proses
pencarian gagal untuk menyatu secara cepat, maka memungkinkan estimasi parameter
menjadi tidak stabil. Jika dalam keadaan seperti itu, menambah satu atau dua observasi
mampu mengubah hasil estimasi.
Residual dari estimasi model series yang tidak berkorelasi merupakan hal yang
sangat penting. Adanya korelasi menyiratkan pergerakan sistematik dari series/urutan {𝑦𝑡 }
yang tidak diperhitungkan oleh koefisien ARMA yang disertakan dalam model. Oleh karena
itu, model tentative yang menghasilkan residual yang tidak acak harus dihilangkan dari
daftar pertimbangan model. Untuk mengecek korelasi dalam residual, bentuk ACF dan
PACF dari residual yang dihasilkan model estimasi. Gunakan persamaan (2.41) dan (2.42)
untuk menentukan apakah terjadi autokorelasi semua residual atau hanya autokorelasi
parsial yang secara statistik signifikan. Meskipun tidak ada tingkat signifikansi yang
dianggap “paling tepat”, maka waspadai jika model menghasilkan (1) beberapa korelasi
residual yang signifikan secara marginal dan (2) statistik-Q yang hampir tidak signifikan
pada tingkat signifikansi 10%. Dalam keadaan seperti itu, biasanya memungkinkan untuk
memformulasikan model dengan performa yang lebih baik.
Demikian pula, sebuah model dapat diestimasi hanya pada sebagian dari kumpulan
data. Model yang diestimasi kemu error dari hasil forecast berguna untuk membandingkan
kecukupan model alternatif. Model yang memiliki prediksi nilai out-of-sample yang buruk
akan di eliminasi. Detailnya dalam menyusun forecast/prediksi dari out-of-sample akan
dibahas di Subbab 9.
𝑦𝑡+1 = 𝑎0 + 𝑎1 𝑦𝑡 + 𝜀𝑡+1
Jika koefisien 𝑎0 dan 𝑎1 diketahui, maka dapat dilakukan forecast 𝑦𝑡+1 bersyarat
dengan informasi yang tersedia pada periode t seperti
𝐸𝑡 𝑦𝑡+1 = 𝑎0 + 𝑎1 𝑦𝑡 (2.47)
dimana 𝐸𝑡 𝑦𝑡+1 merupakan cara singkat untuk menulis ekspektasi bersyarat dari 𝑦𝑡+1 dengan
informasi yang tersedia pada periode t. Secara formal dituliskan sebagai 𝐸𝑡 𝑦𝑡+1 =
𝐸(𝑦𝑡 , 𝑦𝑡−1 , 𝑦𝑡−2 , … , 𝜀𝑡 , 𝜀𝑡−1 , … ).
Dengan cara yang sama, karena 𝑦𝑡+2 = 𝑎0 + 𝑎1 𝑦𝑡+1 + 𝜀𝑡+2 , maka forecast dari 𝑦𝑡+2
bersyarat dengan informasi yang tersedia di periode t adalah
𝐸𝑡 𝑦𝑡+2 = 𝑎0 + 𝑎1 𝐸𝑡 𝑦𝑡+1
𝐸𝑡 𝑦𝑡+2 = 𝑎0 + 𝑎1 (𝑎0 + 𝑎1 𝑦𝑡 )
Maka dari itu, forecast dari 𝑦𝑡+1 dapat digunakan untuk mengestimasi 𝑦𝑡+2 . Intinya
adalah bahwa forecast yang dibangun dapat digunakan untuk iterasi kedepannya
(forecast/perediksi yang dihasilkan dapat digunakan untuk memprediksi periode-periode
selanjutnya); nilai forecast dari 𝑦𝑡+𝑗 dapat digunakan untuk peramalan
memprediksi/peramalan 𝑦𝑡+𝑗+1. Karena 𝑦𝑡+𝑗+1 = 𝑎0 + 𝑎1 𝑦𝑡+1 + 𝜀𝑡+𝑗+1, maka secara
langsung akan diikuti