Anda di halaman 1dari 43

Langkah-langkah dalam analisis arima box-jenkins

Import data

1. Buka workfile baru dengan cara File > New > Workfile. Maka akan muncul
tampilan seperti berikut yang digunakan untuk menentukan deskripsi data.

1. Workfile structure type : digunakan untuk menetukan struktur data.


ada 3 jenis struktur:
 unstructured/undated : tidak struktur atau tidak ditentukan
waktunya untuk data time series.
 Dated : menentukan waktu data untuk data time series.
 Balanced panel : menentukan data untuk data panel.
2. Date range: Deskripsi dari struktur data yang terpilih tadi. ini akan
berubah tergantung dari tipe struktur yang terpilih. untuk yang
undated isi dengan banyaknya observasi.
3. Name(optional) : untuk memberi nama workfile dan nama page. ini
hanya optional.
2. setelah itu akan muncul tampilan berikut.
3. Masukkan/import data series yang terdapat pada file ihsg arima.xls dalam
Workfile di EViews. Caranya pilih File > Import > Read text-Lotus-Excel.
kemudian pilih data maka muncul jendela seperti berikut.

o Data order: menetukan data yang excel berada dalam satu baris atau
satu kolom.
o Upper-left data cell: menetukan data cell(posisi) untuk data pertama
yang berada di excel. kalau data berdasarkan kolom yang paling atas
kalau data berdasarkan baris yang paling kiri
o Excel 5+ sheet name untuk menentukan sheet yang digunakan di
excel. kalau menggunakan sheet default bisa dikosongkan saja.
o Names: isikan nama data
4. maka akan muncul tampilan data yang digunakan. proses memasukkan data
sudah selesai

Identifikasi Model

1. Untuk menentukan model arima (p,d,f). awalnya kita menentukan nilai d


dengan uji stasioneritas terlebih dulu. untuk langkah ini saya buat secara
terpisah. jadi bisa buka link ini uji stasioneritas.

2. uji stasioneritas.

1. Masukkan data yang akan digunakan. Dengan mengikuti langkah berikut.

2. Pilih file workfile yang akan digunakan. Dan selajutnya next-next aja. sehingga akan
menghasilkan data sebagai berikut.
3.

3. Klik dua kali salah satu variabel yang akan diuji. Hasilnya sebagai berikut:

4. Setelah ini kita akan melakukan langkah-langkah menetukan pengujian. Sesuai yang
dijelaskan pada materi sebelumnya. Ada beberapa cara untuk menentukan stasioneritas.
Maka pada tahap ini kita akan mencoba satu-satu.

a. Grafik
1. Pilih view, kemudian graph. Sesuai gambar berikut:
Setelah itu langsung ok aja. Kalau mau diubah-ubah bisa juga. Hasilnya sebagai berikut:

Berdasarkan gambar diatas terlihat bahwa adanya indikasi datanya stasioner. Hal itu terlihat
dari grafiknya berada disekitar rata-rata atau dengan kata lain rata-rata dan varians konstan.

b. Correlogram
1. Hampir sama dengan sebelumnya. Pilih view kemudian correlogram. Seperti gambar
berikut:
2. Kemudian muncul gambar berikut: pilih level untuk stasioner data level untuk 1st
difference untuk data first difference, dst. Sedangkan untuk lag-nya untuk melihat sampai
lag keberapa mau dilihat. Berbeda dengan SPSS, EViews bisa ditentukan sendiri lag-nya.

3. Hasilnya sebagai berikut:

Berdasarkan hasil tersebut terlihat bahwa correlogram secara cepat menuju nol, sehingga
dikatakan datanya stasioner. Dilihat Q-stat terlihat bahwa nilainya signifikan artinya datanya
stasioner sesuai dengan materi sebelumnya.

c. Unit Root test

Kali ini kita melangkah ke uji formal yang biasa kita gunakan dalam penelitian ilmiah. Disini
ada beberapa metode yang akan digunakan sehingga akan dibahas masing-masing.
1. Sama dengan sebelumnya. Dengan view dan unit root.

2. Kemudian menetukan metode apa yang digunakan. Dan model apa yang digunakan. Kali
ini kita menggunakan 3 metode yaitu DF, ADF, Philips-peron. Sedangkan untuk medolnya
bisa dicoba-coba.

Hasil uji 3 metode tersebut adalah sebagai berikut:

a. DF (Dickey-Fuller)
Berdasarkan hasil tersebut terlihat bahwa nilai ADF lebih kecil dari nilai kritisnya sehingga
tolak h0 sehingga datanya stasioner.

b. ADF (Augmented Dickey Fuller)


Sama dengan DF, menunjukkan bahwa datanya stasioner.

c. Philips perron

Berdasarkan hasil tersebut data masih menunjukkan stasioner, tapi signifikan pada 5%.

5. Kesimpulan data yang kita gunakan menunjukkan datanya stasioner dengan


menggunakan beberapa metode diatas.
4. jika sudah stasioner sudah cukup. Jika dianggap data belum stasioner, maka
kita perlu melakukan differencing untuk menjadikan data stasioner. bisa
dengan ganti di uji stasioner dengan level kemudian ganti dengan 1st
difference atau 2nd difference pada uji stasioneritas tadi.
5. Tujuan dari uji staasioner untuk menentukan pada saat kapan data stasioner
yang digunakan untuk menentukan d pada model arima(p,d,qytrytrew1` ).
o level: d=0
o 1st difference: d=1
o 2nd difference: d=2
o dst
dalam contoh ini data stasioner pada level sehingga d=0.
6. Langkah berikutnya adalah menentukan p dan q untuk parameter ARIMA
dengan cara melihat pola fungsi autokorelasi(ACF) dan autokorelasi
parsial(PACF) dari data series.
7. Untuk itu melalui menu Quick pilih Series Statistics > Correlogram sehingga
tampil kotak dialog seperti pada Gambar di bawah.

8. Pada kotak Series name isikan nama series, yaitu ihsg, pilih level, kemudian
klik OK. Berikutnya akan ditampilkan kotak dialog seperti pada Gambar
berikut:
9. Setelah klik OK, maka akan ditampilkan plot autokorelasi dan autokorelasi
parsial sebagai berikut:

10. dari plot autokorelasi(ACF) dan plot autokorelasi parsial(PACF), terlihat bahwa
kedua gambar mengalami cutoff (turun drastis) pada baris pertama seperti
ditunjukkan pada kotak hijau. Untuk penjelasan lengkap jika ada yang
bentuknya berbeda silahkan kesini materi arima.

11. jika cutoff pada ACF dan PACF maka kemungkinan pertama p=1 dan q=0
kemudian kemungkinan kedua p=0 dan q=1. sehingga jika digabung dengan
d yang sudah diketahui nilainya. maka kemungkinan ARIMA(p,d,f) adalah
ARIMA(1,0,0) bisa disingkat AR(1) atau model ARIMA(0,0,1) bisa disingkat
MA(1).

Estimasi Model
1. pada ARIMA kita menggunakan trial dan error untuk menentukan model
terbaik. sehingga dilakukan estimasi untuk keduanya. contoh dibawah ini
menggunakan kemungkinan pertama yaitu p=1,d=0 dan q=0 atau AR(1)
2. langkah selanjutnya adalah pilih Quick > estimate equation. sehingga akan
diperoleh dialog berikut.
3. pada equation specification untuk diisi dengan urutan seperti gambar diatas
berikut penjelas:
1. ihsg : sebagai nama data yang digunakan, tinggal diganti jika namanya
beda. kemudian jika pada model yang digunakan d lebih besar dari 1.
tinggal ditambahkan d(). contoh untuk d=1 maka menjadi d(ihsg), jika
d=2 maka menjadi d(d(ihsg)), dst.
2. c : sebagai konstanta, setelah nama data harus diisi c sebagi konstanta,
3. ar(1) : sebagai nilai p,q tadi. ar menyatakan nilai p dan ma menyatakan
nilai q. untuk kemungkinan pertama dimana p=1 dan q=0 maka
menjadi ar(1)ma(0). tapi karena nilai ma=0 maka dihapus saja jadi
tinggal ar(1).
4. Setelah itu klik ok, maka akan muncul hasil seperti berikut.
Dependent Variable: INFLASI
Method: Least Squares
Date: 02/02/19 Time: 12:57
Sample: 2005M01 2018M12
Included observations: 168
Convergence achieved after 6 iterations
MA Backcast: 2004M12

Variable Coefficient Std. Error t-Statistic Prob.

C 0.518391 0.079095 6.554002 0.0000


MA(1) 0.260712 0.074774 3.486682 0.0006

R-squared 0.052886 Mean dependent var 0.516905


Adjusted R-squared 0.047181 S.D. dependent var 0.833934
S.E. of regression 0.814023 Akaike info criterion 2.438178
Sum squared resid 109.9972 Schwarz criterion 2.475368
Log likelihood -202.8069 Hannan-Quinn criter. 2.453271
F-statistic 9.269318 Durbin-Watson stat 2.044853
Prob(F-statistic) 0.002711

Inverted MA Roots -.26


Dependent Variable: INFLASI
Method: Least Squares
Date: 02/02/19 Time: 12:54
Sample (adjusted): 2005M02 2018M12
Included observations: 167 after adjustments
Convergence achieved after 48 iterations
MA Backcast: 2005M01

Variable Coefficient Std. Error t-Statistic Prob.

C 0.513403 0.073375 6.997005 0.0000


AR(1) -0.392307 0.198598 -1.975383 0.0499
MA(1) 0.643077 0.167446 3.840498 0.0002

R-squared 0.079764 Mean dependent var 0.511437


Adjusted R-squared 0.068542 S.D. dependent var 0.833416
S.E. of regression 0.804347 Akaike info criterion 2.420229
Sum squared resid 106.1038 Schwarz criterion 2.476241
Log likelihood -199.0891 Hannan-Quinn criter. 2.442963
F-statistic 7.107599 Durbin-Watson stat 1.972720
Prob(F-statistic) 0.001096

Inverted AR Roots -.39


Inverted MA Roots -.64

Dependent Variable: INFLASI


Method: Least Squares
Date: 02/02/19 Time: 12:56
Sample (adjusted): 2005M02 2018M12
Included observations: 167 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C 0.510181 0.079684 6.402581 0.0000


AR(1) 0.205664 0.075902 2.709616 0.0074

R-squared 0.042601 Mean dependent var 0.511437


Adjusted R-squared 0.036799 S.D. dependent var 0.833416
S.E. of regression 0.817938 Akaike info criterion 2.447843
Sum squared resid 110.3887 Schwarz criterion 2.485184
Log likelihood -202.3949 Hannan-Quinn criter. 2.462999
F-statistic 7.342018 Durbin-Watson stat 1.934779
Prob(F-statistic) 0.007448

Inverted AR Roots .21


Diagnosa Model

Setelah menduga parameter, langkah selajutnya adalah menguji kedua model


apakah modelnya sudah baik untuk digunakan. Untuk melihat model yang baik bisa
dilihat dari residualnya. Jika residualnya white noise, maka modelnya dapat
dikatakan baik dan sebaliknya. Salah satu cara untuk melihat white noise dapat diuji
melalui korelogram ACF dan PACF dari residual. Bila ACF dan PACF tidak signifikan,
ini mengindikasikan residual white noise artinya modelnya sudah cocok. jika tidak
model maka tidak cocok.

Caranya dengan pilih View > Residual tests > Correlogram-Q- Statistic. maka
akan muncul output seperti berikut.
Interpretasi dari hasil diatas. terlihat bahwa prob. terdapat nilai yang
signifikan artinya lebih kecil dari 0,05(alpha) pada beberapa lag. sehingga bisa
dikatakan model tidak cocok. tapi untuk beberapa lag kemudian menunjukkan tidak
signifikan walaupun begitu sepemahaman saya tetap tidak cocok. dalam
menggunakan minitab untuk arima dalam outputnya menggunakan beberapa lag
tertentu saja hanya lag 12, 24, 36 dan 48 yang dicantumkan sehingga apabila dicoba
dengan minitab mungkin bisa memenuhi.

Pemilihan model terbaik

Ada beberapa kriteria dalam memilih model terbaik:


 Nilai Schwarz criterion yang kecil
 Nilai Akaike info criterion (AIC) yang kecil
 SSE yang kecil
 Adjusted R squared yang besar

Untuk menetukan model terbaik dengan membandingkan kriteria diatas. untuk


melihat kriteria itu bisa lihat pada output diatas yang sudah diberi tanda kotak hijau.
berikut contoh tabel dalam membandingkan.
Model AIC SBC SSE adj. R squared
AR(1) 10,6231 10,70183 103804,8 23,5437
MA(1) 10,6644 10,74196 110634,6 18,5544

Setelah dilihat hasilnya diperoleh bahwa model terbaik adalah AR(1) karena
memenuhi dari kriteria di atas .

ARIMA - PEMODELAN PERAMALAN BERKALA

Tujuan Pemodelan ARIMA :

Untuk memahami dan menjelaskan mekanisme tertentu dengan variabel


independen itu sendiri, sekaligus meramalkan suatu nilai di masa depan,
mengoptimalkan sistem kendali .
Tahap-tahap dalam pemodelan ARIMA :

1. Uji Stationeritas Data.

2. Mendeteksi model dengan plot correlogram.

3. Memilih model terbaik yang sesuai dengan beberapa asumsi-asumsi, yang akan
saya jelaskan setelah ini.

Model-Model ARIMA:
1. Model AR(p)

Adalah model yang melihat pengaruh data sekarang (Yt) dengan data sebelumnya
(Yt-1)

1. Model AR(p)

Model AR(p) menjadi yang terbaik jika plot ACF mengalami dice down, dan PACF cut
off setelah lag p.

Ilustrasi :
Plot ACF dice down

Plot PACF cut off di lag 1.

2. Model Moving Average - MA(q)

Adalah metode membuat model time series dan memperhalus data yang dibuat
data-data secara berurutan dari sekelompok data.

Model MA(q) menjadi pilihan yang terbaik, jika plot ACF cut off, sementara plot PACF
dice down.

Ilustrasi:

Plot ACF cut off pada lag 1.

Plot PACF dice down

3. Model ARMA(p,q)

Model ARMA(p,q) menjadi pilihan yang terbaik, jika plot ACF dan PACF cut off.
Plot ACF cut off pada lag 1.

Plot PACF cut off pada lag 1.

Trivia :

ARIMA(1,1,2) adalah model ARMA (1,2) yang dilakukan pada data First Difference.

Kriteria model Arima Terbaik :

1. Pilih model yang paling sederhana (parsimoni)

2. Pilih model dengan koefisien yang signifikan.

3. Nilai Schwarz criteria terkecil

4. Nilai standard error of regression terkecil.

5. Nilai Sum Squered residual terkecil

6. Nilai adj-R2 terbesar.


7. Residual (error) bersifat white noise (random/acak)

Contoh Praktek pemodelan ARIMA

Langkah pertama adalah mengecek stationeritas data.

Setelah memasukkan data, kita uji Stationeritas dengan “Unit Root”

Pada grub data individual, KLIK


View > Unit Root Test....
Akan muncul Tab "Unit Root Test"
Uji dilakukan pada tingkat Level,
dengan menggunakan pilihan "Intercept"

Dari Hasil uji ADF, diketahui bahwa variabel CURAHHUJAN

pada taraf nyata 5% telah stationer pada tingkat level.

Maka, kita dapat langsung menuju pemodelan metode Box Jenkins,

dengan melihat plot korelogram data CURAHHUJAN.


KLIK
View > Correlogram...

Kita lihat plot Correlogram pada tingkat level,


karena data stationer pada tingkat level
Dari Plot korrelogram, diketahui bahwa...

Plot ACF mengalami cut off pada lag 2.

Plot PACF mengalami cut off pada lag 1.

Maka kemungkinan model ARIMA adalah.

AR(1) , nama lain model ini adalah ARIMA (1,0,0)

MA(2) , nama lain model ini adalah ARIMA (0,0,2)

ARMA(1,2) , nama lain model ini adalah ARIMA (1,0,2)

Kita lakukan pemodelan.


KLIK
Quick > Estimate Equation...

Muncul tab baru "Equation Estimation"


Untuk Model AR(1) ketik “CURAHHUJAN c ar(1)” , tanpa tanda “”
Untuk Model MA(2) ketik “CURAHHUJAN c ma(1) ma(2)” , tanpa tanda “”
Untuk Model ARMA(1,2) ketik “CURAHHUJAN c ar(1) ma(1) ma(2)” , tanpa tanda
“”

Pemilihan Model yang terbaik.


Model yang terbaik adalah model AR(1)

Sekarang dilakukan peramalan pada model AR(1)

Pada tab hasil pemodelan AR(1)


KLIK Forecast
akan muncul tampilan ini,
dan klik OK
Hasil peramalan

e start our example from the simulation of ARMA process and then we take a look
at its estimation. In order to illustrate the statements in Table 3.1, let us simulate
AR(3), MA(2) and ARMA(3 2) processes and compute their autocorrelation and
partial autocorrelation functions.

In particular, we simulate

To start with, we generate a series of uncorrelated normally distributed residuals


(remember, command nrnd generates standard normally distributed random
number)

series u=0.5*nrnd

Also, we have to generate initial values for the series. Since the highest order of the
series is 3, let us generate first three values. This can be done by setting sample to
only fist three observations and assign zero values to all of three series.

smpl @first @first+2

series y1=0

series y2=0

series y3=0
Now, we set the sample for the rest of observations and generate series according
to formulae (3.3.2)

smpl @first+3 @last

Now, we are ready to build and inspect their correlograms. Remind, that in order
to build a correlogram, one should click on the icon if the time series being
investigated and choose View/Correlogram... option. The correlograms of three time
series is given on Figures ??-??.

As we have expected, the autocorrelation function for the first


series (AR(3)) damps out slowly towards zero while its partial autocorrelation
function has spikes at first three lags. The autocorrelation function of the second
series (MA(2)) has spikes at two first lags and disappears afterwards (becomes
insignificant) while the partial autocorrelation function decays oscillating towards
zero. Both autocorrelation and partial autocorrelation functions of the third
series (ARMA(3, 2)) decay slowly towards zero without any clear spikes.
Figure 3.1: Correlogram of an AR(3) process

Figure 3.2: Correlogram of a MA(2) process

Estimation An estimation of the ARMA processes is performed in EViews in the


same way as OLS estimation of a linear regression. The only difference is in specifying
autoregressive and moving average terms in the model. If the series has got
autoregressive components, we should include terms ar(1), ar(2), etc, as regressors
up to the required order. For example, to estimate the first series, type

in the estimation equation box. EViews produces an output given in Figure ?? All
coefficients are significant as expected and are very close to the true values.
Figure 3.3: Correlogram of an ARMA(3, 2) process

Figure 3.4: Estimation output of ARMA process

Inference and tests can be performed in the same way as it was done for the OLS
regression.

If one needs to estimate the model containing moving average components,


ma(1), mar(2), etc terms should be included into the model specification. For
example, to estimate the second time series, we write
Autoregressive and moving average terms can be combined to estimate ARMA
model. Thus, specification of the third series looks like

After having estimated an ARMA model, one can check whether the estimated
coefficients satisfy the stationarity assumptions. This can be done through
View/ARMA structure of the Equation object. For the third series we obtain

Figure 3.5: Table of the roots of the estimated ARMA process It says that our
ARMA series is both stationary and invertible.

Programming example

If we had not known the order of the ARMA series, we would need to apply one of
the information criteria to select the most appropriate order of the series. The
following program illustrates how this can be done using the Akaike criterion.

First we need to define the maximal orders for autoregressive and moving average
parts and store them into variables pmax and qmax. Also we need to declare a matrix
object where the values of the Akaike statistic will be written for each specification
of the ARMA process.

smpl @all

scalar pmax=3

scalar qmax=3

Next, we define nested loops which will run through all possible ARMA
specification with orders within the maximal values.

As the number of lags included in the model increases we add a new AR term in
the model. For this purpose we create a new string variable textsf%order containing
the model specification.

We perform the same procedure with the MA term specification.


Once the model specification is determined and written in the variable %order we
can use a substitution to estimate the corresponding model.

The last command nullify the variable %order for the use in the next step of the
loops. Now we can write the value of the Akaike criterion for the current in the table.

After the program run, the values of the Akaike criterion are stored in the table aic.
Now we can choose that specification of the ARMA model which produces the
smallest AIC value.
ARIMA Menggunakan Eviews
Berikut data bulanan ROA bank umum syariah dari Januari 2009 hingga April 2014.
Buatlah model ARIMA dari data berikut:

Tahun ROA Tahun ROA Tahun ROA


Jan-09 2.11 Nop-10 1.83 Sep-12 2.07
Feb-09 2.15 Des-10 1.67 Okt-12 2.11
Mar-09 2.44 Jan-11 2.26 Nop-12 2.09
Apr-09 2.29 Feb-11 1.81 Des-12 2.14
Mei-09 2.22 Mar-11 1.97 Jan-13 2.52
Jun-09 2.16 Apr-11 1.90 Feb-13 2.29
Jul-09 2.12 Mei-11 1.84 Mar-13 2.39
Agust-09 2.08 Jun-11 1.84 Apr-13 2.29
Sep-09 1.38 Jul-11 1.86 Mei-13 2.07
Okt-09 1.46 Agust-11 1.81 Jun-13 2.10
Nop-09 1.48 Sep-11 1.80 Jul-13 2.02
Des-09 1.48 Okt-11 1.75 Agust-13 2.01
Jan-10 1.65 Nop-11 1.78 Sep-13 2.04
Feb-10 1.76 Des-11 1.79 Okt-13 1.94
Mar-10 2.13 Jan-12 1.36 Nop-13 1.96
Apr-10 2.06 Feb-12 1.79 Des-13 2.00
Mei-10 1.25 Mar-12 1.83 Jan-14 0.08
Jun-10 1.66 Apr-12 1.79 Feb-14 0.13
Jul-10 1.67 Mei-12 1.99 Mar-14 1.16
Agust-10 1.63 Jun-12 2.05 Apr-14 1.09
Sep-10 1.77 Jul-12 2.05
Okt-10 1.79 Agust-12 2.04
Sebelum dilakukan pemodelan ARIMA dilakukan uji stationeritas

Pada level

H0 : |ρ|=1 ( data variabel mengandung unit root)

H1 : ρ<1 ( data variabel tidak mengandung unit root)

α=0.1

Wilayah kritis: ρ < α

Null Hypothesis: ROA has a unit root

Exogenous: Constant, Linear Trend

Lag Length: 0 (Automatic based on SIC, MAXLAG=10)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -3.349326 0.0678


Test critical
values: 1% level -4.110440
5% level -3.482763
10% level -3.169372

*MacKinnon (1996) one-sided p-values.


Terlihat nilai p-value=0.0678 > alpha=0,.05 sehingga tidak tolak H0 dan disimpulkan
datanya masih mengandung unit root/ belum stationer

Pada diffrence I

*Pada Difference I

H0 : δ=0 ( data variabel mengandung unit root)

H1 : δ=0 ( data variabel tidak mengandung unit root)

α=0.1

Wilayah kritis: ρ < α

Null Hypothesis: D(ROA) has a unit root

Exogenous: Constant, Linear Trend

Lag Length: 1 (Automatic based on SIC, MAXLAG=10)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -8.026165 0.0000


Test critical
values: 1% level -4.115684
5% level -3.485218
10% level -3.170793

*MacKinnon (1996) one-sided p-values.


Terlihat nilai p-value=0.000 < alpha=0,.05 sehingga tolak H0 dan disimpulkan
datanya sudah tidak mengandung unit root/ sudah stationer

Sehingga model yang memungkinkan adalah ARI(1), IM(1), ARIMA (1), dst dan data
yang digunakan ada difference I

Model ARI(1)

Klik menu quick estimate equation pada specification ketik: “d(roa) c ar(1)
“ OK

Dependent Variable: D(ROA)


Method: Least Squares
Date: 08/15/14 Time: 08:55
Sample (adjusted): 2009M03 2014M04
Included observations: 62 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.016858 0.038912 -0.433236 0.6664


AR(1) -0.155511 0.127527 -1.219436 0.2275

R-squared 0.024184 Mean dependent var -0.017097


Adjusted R-squared 0.007921 S.D. dependent var 0.355447
S.E. of regression 0.354036 Akaike info criterion 0.792890
Sum squared resid 7.520492 Schwarz criterion 0.861508
Log likelihood -22.57960 Hannan-Quinn criter. 0.819831
F-statistic 1.487024 Durbin-Watson stat 2.085953
Prob(F-statistic) 0.227451

Inverted AR Roots -.16

view residual test heteroskedascity test white test OK


Heteroskedasticity Test: White

F-statistic 0.056824 Prob. F(2,59) 0.9448


Prob. Chi-
Obs*R-squared 0.119197 Square(2) 0.9421
Scaled explained Prob. Chi-
SS 0.863493 Square(2) 0.6494

Model IMA(1)

Klik menu quick estimate equation pada specification ketik: “d(roa) c ma(1)
“ OK

Dependent Variable: D(ROA)


Method: Least Squares
Date: 08/15/14 Time: 09:00
Sample (adjusted): 2009M02 2014M04
Included observations: 63 after adjustments
Convergence achieved after 8 iterations
MA Backcast: 2009M01
Variable Coefficient Std. Error t-Statistic Prob.

C -0.018724 0.027823 -0.672996 0.5035


MA(1) -0.366896 0.120185 -3.052755 0.0034

-
R-squared 0.057933 Mean dependent var 0.016190
Adjusted R-squared 0.042490 S.D. dependent var 0.352642
S.E. of regression 0.345069 Akaike info criterion 0.741084
Sum squared resid 7.263414 Schwarz criterion 0.809120
Log likelihood -21.34416 Hannan-Quinn criter. 0.767843
F-statistic 3.751265 Durbin-Watson stat 1.794478
Prob(F-statistic) 0.057403

Inverted MA Roots .37

view residual test heteroskedascity test white test OK

Heteroskedasticity Test: White

F-statistic 0.195253 Prob. F(5,57) 0.9631


Prob. Chi-
Obs*R-squared 1.060858 Square(5) 0.9575

Scaled explained Prob. Chi-


SS 7.714734 Square(5) 0.1727

Model ARIMA(1)

Klik menu quick estimate equation pada specification ketik: “d(roa) c ar(1)
ma(1) “ OK

Dependent Variable: D(ROA)


Method: Least Squares
Date: 08/15/14 Time: 09:01
Sample (adjusted): 2009M03 2014M04
Included observations: 62 after adjustments
Convergence achieved after 16 iterations
MA Backcast: 2009M02

Variable Coefficient Std. Error t-Statistic Prob.

C -0.005773 0.008228 -0.701677 0.4856


AR(1) 0.667741 0.105854 6.308110 0.0000
MA(1) -0.973707 0.023518 -41.40192 0.0000

-
R-squared 0.137502 Mean dependent var 0.017097
Adjusted R-squared 0.108265 S.D. dependent var 0.355447
S.E. of regression 0.335654 Akaike info criterion 0.701707
Sum squared resid 6.647164 Schwarz criterion 0.804633
Log likelihood -18.75292 Hannan-Quinn criter. 0.742118
F-statistic 4.702992 Durbin-Watson stat 1.958051
Prob(F-statistic) 0.012731

Inverted AR Roots .67

Inverted MA
Roots .97

view residual test heteroskedascity test white test OK

Heteroskedasticity Test: White

F-statistic 0.692910 Prob. F(9,52) 0.7120


Prob. Chi-
Obs*R-squared 6.639233 Square(9) 0.6746

Scaled explained Prob. Chi-


SS 49.16673 Square(9) 0.0000

Perbandingan antara model yang akan dipilih:

Model Sign Asumsi R-square AIC SC


Model
Heterosedastis

ARI(1) Tdk Sign. bebas 0.024184 0.792890 0.861508

IMA(1) Sign. bebas 0.057933 0.741084 0.809120

ARIMA(1,1) Sign. bebas 0.137502 0.701707 0.804633

Pemilihan model yang terbaik adalah model yang signifikan, nilai r-square besar,
serta AIC dan SC yang terkecil sehingga model yang terpilih adalah model
ARIMA(1,1)

Selanjutnya kita uji model terpilih dengan klik menu “Forecast OK

Anda mungkin juga menyukai