Anda di halaman 1dari 90

Pengenalan Menu Eviews 4.

1
Oleh
Dr. Nelmida, SE., M.Si1

Eviews merupakan salah satu software statistika yang powerful dalam


menganalisis data khususnya data time series. Software ini bersifat user
friendly karena berbasiskan window dengan berbagai fasilitas seperti data
analysis¸ regression, dan forecasting. Dengan Eviews ini kita dapat
mengaplikasikan dengan cepat dan mudah metode statistika sesuai dengan
perilaku data, dan selanjutnya dengan metode terpilih ini akan digunakan
untuk meramalkan nilai dugaan di masa depan. Beberapa contoh cakupan
penggunaan Eviews antara lain: scientific data analysis and evaluation,
financial analysis, macroeconomic forecasting, simulation, sales forecasting
and cost analysis.

Untuk Menginstal Eviews ini diperlukan beberapa persyaratan kemampuan


komputer yang digunakan:
1. Menggunakan processor Minimal A386,486, Pentium atau procesor intel
lainnya yang dijalankan dengan Windows 3.1, Windows 95, atau Windows
NT.
2. Minimal RAM 4 MB untuk Windows 3.1, untuk Windows 95 dan NT sangat
disarankan 8 MB atau lebih.
3. Monitor VGA, Super VGA atau lainnya yang kompartibel.
4. Menggunakan mouse, trackball, atau pen pad.
5. Instalasi program akan membutuhkan sekitar lebih dari 10 MB.

Ketika pertama kali EViews dijalankan akan keluar tampilan sebagai berikut:

 Tampilan awal EViews


Menu EViews
File
Edit
Objects
View
Procs
Quick
Options
Window
Help

Status Line Minimize Close

 Window
Jika Clik
Restore/Maximize
 Minimize, membuat ukuran window kecil
 Restore, ukuran window sedang, atau Maximize, ukuran window
penuh/besar
 Close, menutup window EViews
Status line menunjukkan :
1. Tempat pesan suatu perintah 3. Default database
4. Workfile yang aktif
1
Dosen Tetap Jurusan Manajemen Fakultas Ekonomi Bung Hatta Padang.
Email: nelmida_fe@yahoo.co.uk.
2. Default directory

Pembuatan Workfile
Sebelum menjalankan perintah metode statistika yang ada di Eviews,
terlebih dahulu harus dibuka file Eviews workfile. Jika belum terdapat data
yang dimaksud maka kita harus membuat workfile baru dengan mengimpor
dari data Excel spreadsheet.

Dalam modul ini akan digunakan data dari tahun 1996 sampai tahun 2005
dalam file data1.xls
Tahapan berikut merupakan langkah membuat workfile data baru

 Mengatur waktu dari data


File/New/Wokfile....

 Pilihan waktu dari data , pilihan ini sesuai dengan waktu dari data
di Excel spreadsheet
 Annual : data tahunan
 Semi-annual : data per semeter
 Quarterly : data triwulanan
 Monthly : data bulanan
 Weekly : data mingguan
 Daily (5 day weeks) : data mingguan 5 hari
 Daily (7 day weeks) : data harian
 Undated or irregular : bukan data time series atau tidak
beraturan

 Format Penulisan Waktu : tahun:bulan:hari atau tahun:bulan


atau tahun
Pada Start date ketik 1996 dan End date ketik 2005 (sesuai
dengan date data yang akan diimpor)
 OK, akan tampil

 Mengimpor Data dari Excel


Procs/Impor/ReadText-Lotus-Exel...., baik pada toolbar window
workfile:UNTITLED atau pada window Eviews. Atau dengan perintah
File/Impor/ReadText-Lotus-Exel...., dari menu window EViews

 Tentukan lokasi file Excel berada misalnya di


d:Eviews/data/data1.xls terus pilih menu open

 Ketik 4, pada Names for series or Number of series if names infiles


untuk menyatakan banyaknya series variabel yang diimpor.

 Perhatikan kesesuaian dengan data di Excel


 OK

B2 menunjukkan lokasi sel di Excelspreadsheet yang pertama kali


diimpor ke Eviews workfile. Input angka X Y menunjukkan
banyaknya variabel yang diimpor, sedangkan tahun 1996 2005
adalah tahun series data sesuai dengan range yang ditentukan
ketika membuat workfile baru.

 Maka pada window workfile akan tampak sebagai berikut :

 Save Workfile
Save, pada toolbar window workfile, atau File/save, pada menu
windows EViews dan tulis nama file DATA (atau apa saja sesuai
keinginan kita) pada suatu directori atau drive.

 Cara Lain Entri Data atau Copy Data

 Pada window workfile atau EViews Objects/New Object.... atau


click kiri/New Object... pada kolom kosong window workfile

Klik
Klik
Kanan
Paste

 Copy data dari Excel dengan cara : Block data1.xls (dengan


judulnya) dan copy pada window Excel. Kemudian pindah ke
window Eviews, Klik kanan/paste pada window Series Data. Maka
akan tampak sebagai berikut :
ORDINARY LEAST SQUARE
A. Regresi Sederhana (OLS Sederhana)
Model regresi sederhana adalah suatu model yang melihat hubungan
antar dua variabel. Salah satu variabel menjadi variabel bebas (Independent
variable) dan variabel yang lain menjadi variabel terikat (Dependent
variable). Dalam regresi sederhana ini, akan kita ambil suatu contoh kasus
mengenai hubungan antara pengeluaran konsumsi dan pendapatan di US
pada tahun 1996 – 2005 (Gujarati, 2003: 6). Persamaan model ini adalah:
Y = β 0 + β 1X + µ
Dimana, Y adalah pengeluaran konsumsi, β 0 adalah konsumsi autonom, X
merupakan pendapatan dan µ adalah error term.

(lokasi file Excel berada di d:Eviews/data/data1.xls:data1)


Setelah muncul data yang akan diolah, kemudian blok variable X dan Y -
Klik kanan: Open - as Group. Maka, akan muncul tampilan :

Kemudian Pilih Procs - Make Equation - Equation Specification


Setelah itu ketik data yang akan diolah : Y spasi c spasi X, pilih Method:
LS – OK. Variabel yang kita tulis pertama adalah variabel dependen,
selanjutnya adalah konstanta dan variabel independent.
Maka akan tampak hasil regresi seperti berikut:

Dependent Variable: Y
Method: Least Squares
Date: 08/24/07 Time: 01:18
Sample: 1996 2005
Included observations: 10
Variable Coefficien Std. Error t-Statistic Prob.
t
C 24.45455 6.413817 3.812791 0.0051
X 0.509091 0.035743 14.24317 0.0000
R-squared 0.962062 Mean dependent 111.000
var 0
Adjusted R-squared 0.957319 S.D. dependent var 31.4289
3
S.E. of regression 6.493003 Akaike info criterion 6.75618
4
Sum squared resid 337.2727 Schwarz criterion 6.81670
1
Log likelihood - F-statistic 202.867
31.78092 9
Durbin-Watson stat 2.680127 Prob(F-statistic) 0.00000
1

Intepretasi Hasil Regresi:


Dari hasil regresi diatas maka akan didapatkan persamaan sebagai berikut:
Y = 24.45455 + 0.509091X

Sebagai contoh, apabila ditanyakan berapa tingkat konsumsi individu


jika pendapatan tahun depan diperkirakan sebesar 5000 milyar dollar US?.
Maka
Y = 24.45455 + 0.509091(5000)
Y = 2569.91
Jadi, jika pendapatan sebesar 5000 milyar dolar US maka tingkat konsumsi
individu adalah sebesar 2569.91 milyar dolar US.

B. Regresi Berganda
Model regresi berganda merupakan suatu model regresi yang terdiri dari lebih
dari satu variabel independen. Bentuk umum regresi berganda dapat ditulis
sebagai berikut:
Y1 = β 0 + β 1X1 + β 2X2 + β 3X3 + ….+ β nXn + ei

Pada intinya, langkah – langkah estimasi regresi berganda didalam Eviews


tidak jauh berbeda dengan regresi sederhana seperti yang telah dibahas
sebelumnya. Berikut ini adalah tampilan data yang akan digunakan dalam
regresi berganda.

(lokasi file Excel berada di d:Eviews/data/data1.xls:mul2)

Lakukan regresi berganda dengan cara :


Demand for Chickens, United States, 1960-
1982
YEAR = Year
Y = Per Capita Consumption of Chickens,
Pounds
X2 = Real Disposable Income Per Capita,
$
X3 = Real Retail Price of Chicken Per
Pound, Cents
X4 = Real Retail Price of Pork Per Pound,

Maka akan menghasilkan angka sebagai berikut :

Dari hasil regresi diatas maka akan didapatkan persamaan sebagai berikut:
Y = 38.59690942 + 0.004889344622*X2 - 0.6518875293*X3 +
0.2432418207*X4 +
0.1043176111*X5 - 0.07111034011*X6

Dengan cara yang sama seperti pada regresi sederhana kita akan meregresi
variabel dependen yaitu ekspor dan veriabel independen yang terdiri dari
suku bunga, nilai tukar rupiah, serta inflasi.

(lokasi file Excel berada di d:Eviews/data/data1.xls:auto2)

Dari hasil regresi akan diperoleh estimasi sebagai berikut:

Cara mengintepretasikan hasil regresi sama dengan estimasi pada regresi


sederhana.
C. Uji t dan Uji F
Uji t merupakan pengujian terhadap koefisien dari veriabel bebas
secara parsial. Uji ini dilakukan untuk melihat tingkat signifikansi dari veriabel
bebas secara individu dalam mempengaruhi variasi dari variabel terikat.
Sedangkan Uji F merupakan uji model secara keseluruhan. Oleh sebab itu Uji F
ini lebih relevan dilakukan pada regresi berganda. Uji F dilakukan untuk
melihat apakah semua koefisien regresi berbeda dengan nol atau dengan kata
lain model diterima.
Pada regresi sederhana maupun regresi berganda, pengujian koefisien
β 1, β 2, dan β n dapat dilakukan dengan Uji t. Pengujian ini dilakukan dengan
cara membandingkan t-statistik pada hasil regresi dengan t –tabel. Jika nilai t-
stat > t-tabel, maka Ho ditolak dan H1 diterima, dengan kata lain terdapat
hubungan antara variabel dependen dan variabel independen. Sebaliknya jika
t-stat < t-tabel, maka Ho diterima dan H1 ditolak, yang artinya tidak terdapat
hubungan antara variabel dependen dan variabel independen.
Pada contoh kasus diatas, dengan tingkat kepercayaan 95% (α = 5%)
maka daerah kritis untuk menolak Ho adalah t-stat < t 0.025;39. Kita bisa melihat
bahwa pada variabel inflasi memiliki nilai t-stat sebesar 5,479 sedangkan nilai
t-tabel pada t0.025;39 adalah 2,021. Artinya nilai t-stat > t-tabel, sehingga
hipotesa H0 ditolak, dapat disimpulkan bahwa terdapat hubungan antara
ekspor dan inflasi.
Pengujian hipotesis dapat juga dilakukan dengan konsep P-Value. Cara
ini relatif lebih mudah dilakukan karena tersedia pada menu Eviews. Konsep
ini membandingkan α dengan nilai P-Value. Jika nilai P-Value kurang dari α,
maka H0 ditolak. Pada contoh kasus diatas nilai P-Value dari variabel inflasi
adalah 0,0000 artinya pada α = 1%, 5%, dan 10% hipotesa H0 ditolak. Artinya
pada berbagai tingkat keyakinan tersebut ekspor memiliki hubungan dengan
inflasi.
Pada prinsipnya Uji F memiliki konsep yang tidak jauh berbeda dengan
Uji t. Jika Uji t digunakan untuk melihat pengaruh variabel bebas terhadap
variabel terikat secara individu, maka Uji F digunakan untuk melihat pengaruh
variabel bebas terhadap varibel terikat secara bersama-sama. Formulasi dari
Uji F adalah sebagai berikut:
Ho : β 1 = β 2 = β 3 = 0, artinya antara variabel dependen dengan
variabel-
variabel independen tidak ada hubungannya
H1 : β 1 ≠ β 2 ≠ β n ≠ 0, artinya antara variabel dependen dengan
variabel-
Variabel independen ada hubungan.
Dengan menggunakan konsep P-Value, maka pada contoh diatas P-Value dari
F = 0,000012. Artinya pada α = 1%, 5%, dan 10% hipotesa H0 ditolak dan H1
diterima. Dimana antara ekspor dengan inflasi, tingkat bunga, dan nilai tukar
rupiah terdapat suatu hubungan. Dengan kata lain variabel independen dalam
persamaan tersebut secara bersama-sama berpengaruh terhadap variasi dari
variabel dependen.

D. Uji Asumsi Klasik


Dalam melakukan estimasi persamaan linier dengan menggunakan
metode OLS, maka asumsi-asumsi dari OLS harus dipenuhi. Apabila asumsi
tersebut tidak dipenuhi maka tidak akan menghasilkan nilai parameter yang
BLUE (Best Linear Unbiased Estimator). Asumsi BLUE antara lain:
1. Model regresi adalah linier dalam parameter
2. Error term (u) memiliki distribusi normal. Implikasinya, nilai rata-rata
kesalahan adalah nol.
3. Memiliki varian yang tetap (homoskedasticity).
4. Tidak ada hubungan antara variabel bebas dan error term.
5. Tidak ada korelasi serial antara error (no-autocorrelation).
6. Pada regresi linear berganda tidak terjadi hubungan antar variabel bebas
(multicolinearity).

D.1. Uji Normalitas


Uji normalitas digunakan jika sampel yang digunakan kurang dari 30,
karena jika sampel lebih dari 30 maka error term akan terdistribusi secara
normal. Uji ini disebut Jarque – Bera Test.
Lakukan Prosedur berikut: Dari hasil estimasi - View – Residual test –
Histogram Normality test

(lokasi file Excel berada di d:Eviews/data/data1.xls:data1)

Dari hasil diatas maka langkah selanjutnya adalah melakukan uji normalitas
error term:
1. H0 : error term terdistribusi normal
H1 : error term tidak terdistribusi normal
2. α = 5% maka daerah kritis penolakan H0 adalah P-Value < α
3. Karena P-Value = 0,678100 > 0,05 maka H0 diterima
4. Kesimpulan, dengan tingkat keyakinan 95%( α = 5% ) maka dapat
dikatakan bahwa error term terdistribusi normal.

D.2. Uji Multikolinieritas


Multikolinearitas adalah adanya hubungan linier yang signifikan antara
beberapa atau semua variabel independent dalam model regresi. Untuk
melihat ada tidaknya multikolinieritas dapat dilihat dari koefisien korelasi dari
masing-masing variabel bebas. Jika koefisien korelasi antara masing-masing
variabel bebas lebih besar dari 0,8 berarti terjadi mulikolinieritas.
Lakukan prosedur berikut: Dari workfile – Blok semua variabel kecuali c
dan resid – Klik kanan: Open – As Group
Setelah tampil semua variabel, Klik View – Correlation – Common
Sampel.

(lokasi file Excel berada di d:Eviews/data/data1.xls:mul2)


Dari tampilan diatas terlihat bahwa antara variabel X2, X3, X4, X5, dan X6 terjadi
multikolinieritas, karena memiliki nilai Correlation matrix lebih dari 0,8. Cara
mengatasi adanya multikol dapat dilakukan dengan cara: (1) menghilangkan
variabel independent, (2) transformasi variabel, (3) penambahan data. Berikut
ini dilakukan cara mengatasi multikol dengan transformasi data, yaitu
penambahan log. Dari hasil tersebut, semua koefisien telah signifikan.

D.3. Heteroskedasitas
Heteroskedasitas merupakan keadaan dimana varians dari setiap
gangguan tidak konstan. Uji heteroskedasitas dapat dilakukan dengan
menggunakan White Heteroskedasticity yang tersedia dalam program Eviews.
Hasil yang peril diperhatikan dari Uji ini adalah nilai F dan Obs*R-Squared. Jika
nilai Obs*R-Squared lebih kecil dari X2 tabel maka tidak terjadi
heteroskedastisitas, dan sebaliknya

(lokasi file Excel berada misalnya di d:Eviews/data/data1.xls:het2)


Untuk mendeteksi adanya masalah hetero dapat dilihat pada residual dari
hasil estimasi. Jika residual bergerak konstan artinya tidak ada hetero dan jika
membentuk suatu pola tertentu maka mengindikasikan adanya hetero.

Dependent Variable: PROFIT


Method: Least Squares
Date: 08/26/07 Time: 22:40
Sample: 1 18
Included observations: 18
Variable Coefficien Std. Error t-Statistic Prob.
t
RD 0.369500 0.305947 1.207726 0.2459
SALES 0.068854 0.014112 4.879106 0.0002
C 791.5363 1214.194 0.651903 0.5243
R-squared 0.810248 Mean dependent 8102.45
var 0
Adjusted R-squared 0.784947 S.D. dependent var 7281.31
5
S.E. of regression 3376.620 Akaike info criterion 19.2381
5
Sum squared resid 1.71E+08 Schwarz criterion 19.3865
5
Log likelihood - F-statistic 32.0252
170.1433 1
Durbin-Watson stat 2.853771 Prob(F-statistic) 0.00000
4
Dengan melihat hasil tersebut, dapat diduga terjadi hetero pada hasil
estimasi. Dimana residualnya membentuk suatu pola atau tidak konstan.
Untuk membuktikan dugaan tersebut perlu dilakukan Uji White Hetero.
Lakukan prosedur berikut: Dari hasil Estimasi Klik View – Residual test –
White Hetero (no cross) - OK

White Heteroskedasticity Test:


F-statistic 8.281590 Probability 0.001508
Obs*R-squared 12.92698 Probability 0.011638

Dengan melihat hasil Obs*R-Squared sebesar 12,92698 > 9,48773 (nilai kritis
Chi square (X2) pada α = 5%), maka dapat disimpulkan bahwa pada estimasi
tersebut terjadi hetero. Cara lain yaitu dengan melihat nilai probabilitas dari
nilai chi squares. Pada hasil diatas nilai probabilitasnya sebesar 0,011638
artinya terjadi hetero pada tingkat α = 1%. Semakin besar nilai
probabilitasnya berarti semakin tidak terjadi hetero.

D.4. Autokorelasi
Autokorelasi menunjukkan adanya hubungan antar gangguan. Metode
yang digunakan dalam mendeteksi ada tidaknya masalah autokorelasi adalah
Metode Bruesch-Godfrey yang lebih dkenal dengan LM-Test. Metode ini
didasarkan pada nilai F dan Obs*R-Squared. Dimana jika nilai probabilitas dari
Obs*R-Squared melebihi tingkat kepercayaan maka Ho diterima, berarti tidak
ada masalah autokorelasi.

(lokasi file Excel berada misalnya di d:Eviews/data/data1.xls:auto2)

Dapat dilihat dari hasil estimasi sepertinya tidak terjadi per masalahan
yang melanggar asumsi klasik. Dimana terlihat bahwa nilai t-statistik
signifikan., R2 bagus, dan Uji F juga signifikan. Namun dalam hasil tersebut
terdapat DW stat yang relatif kecil. Nilai DW yang kecil tersebut merupakan
salah satu indikator adanya masalah autokorelasi.
Untuk membuktikan adanya masalah autokorelasi dalam model dapat
kita lakukan dengan melakukan uji LM.
Lakukan prosedur berikut: Dari hasil estimasi – Klik View – Residual test
– Serial Correlation LM test - OK

Breusch-Godfrey Serial Correlation LM Test:


F-statistic 13.24422 Probabili 0.000060
ty
Obs*R-squared 17.36554 Probabili 0.000169
ty

Dari hasil test diatas dapat disimpulkan bahwa dalam hasil estimasi tersebut
terjadi masalah autokorelasi. Hal ini dapat dilihat dari nilai probabilitas kurang
dari tingkat keyakinan (α = 1%) maka Ho ditolak yang berarti dalam model
terdapat autokorelasi.

AUTOREGRESSIVE INTEGRATED MOVING AVERAGE


(ARIMA)
1. Pengantar
ARIMA merupakan suatu teknik yang mengabaikan independent
variable dalam melakukan peramalan. Model ini hanya menggunakan nilai-
nilai sekarang dan masa lalu dari dependent variable untuk melakukan
peramalan jangka pendek. Metode ini disebut juga dengan metode Box-
Jenkins.

2. Petunjuk Operasional dalam Eviews


a. Uji Stasioneritas Data
Uji stasioneritas data digunakan untuk melihat apakah data
mengandung akar unit atau tidak. Data time series dikatakan stasioner jika
data tersebut tidak mengandung akar-akar unit (unit root) dengan kata mean,
variance, dan covariant konstan sepanjang waktu. Pengujian akar-akar unit
root dilakukan dengan metode Augmented Dickey Fuller(ADF), yaitu dengan
membandingkan nilai ADFstatistik dengan Mackinnon critical value 1%, 5%, dan
10%. Data dikatakan stasioner jika nilai ADFstatistik lebih besar dari Mackinnon
critical value 1%, 5%, dan 10% serta nilai probabilitasnya signifikan dibawah
10%. Jika ADFstatistik lebih kecil dari Mackinnon critical value 1%, 5%, dan 10%
serta nilai probabilitasnya diatas 10% (tidak signifikan) maka data dikatakan
tidak stasioner.
Lakukan prosedur berikut :
Klik Workfile – Klik variabel yang akan di uji – View - Unit root test
(lokasi file Excel berada di d:Eviews/data/data2 ARIMA.xls)

Lakukan pengujian pada tingkat Level dengan asumsi trend dan intercept
-OK

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(GDP)
Method: Least Squares
Date: 10/22/07 Time: 20:59
Sample(adjusted): 1970:3 1991:4
Included observations: 86 after adjusting endpoints
Variable Coefficien Std. Error t-Statistic Prob.
t
GDP(-1) - 0.035508 -2.215287 0.0295
0.078661
D(GDP(-1)) 0.3557940.102691 3.464708 0.0008
C 234.972998.58764 2.383391 0.0195
@TREND(1970:1) 1.8921990.879168 2.152260 0.0343
R-squared 0.152615 Mean dependent 23.3453
var 5
Adjusted R-squared 0.121613 S.D. dependent var 35.9379
4
S.E. of regression 33.68187 Akaike info criterion 9.91719
1
Sum squared resid 93026.38 Schwarz criterion 10.0313
5
Log likelihood - F-statistic 4.92276
422.4392 2
Durbin-Watson stat 2.085875 Prob(F-statistic) 0.00340
6

Dari hasil pengujian dapat dilihat nilai ADFstatistik sebesar 2,215287 lebih kecil
dari dengan probabilitas diatas 10%, yaitu 0,4749. Berarti data masih
mengandung akar unit, dengan kata lain data tidak stasioner pada tingkat
level. Lakukan kembali pengujian unit root pada tingkat first difference.

Klik View – Unit root test – Pilih first difference - Intercept – OK

Null Hypothesis: D(GDP) has a unit root


Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=4)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -6.588446 0.0000
Test critical values: 1% level -4.068290
5% level -3.462912
10% level -3.157836
*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(GDP,2)
Method: Least Squares
Date: 10/22/07 Time: 21:00
Sample(adjusted): 1970:3 1991:4
Included observations: 86 after adjusting endpoints
Variable Coefficien Std. Error t-Statistic Prob.
t
D(GDP(-1)) - 0.103584 -6.588446 0.0000
0.682459
C 17.25493 7.965990 2.166074 0.0332
@TREND(1970:1) - 0.149731 -0.188649 0.8508
0.028246
R-squared 0.343833 Mean dependent 0.20697
var 7
Adjusted R-squared 0.328022 S.D. dependent var 42.0444
1
S.E. of regression 34.46559 Akaike info criterion 9.95206
1
Sum squared resid 98593.78 Schwarz criterion 10.0376
8
Log likelihood - F-statistic 21.7461
424.9386 3
Durbin-Watson stat 2.035932 Prob(F-statistic) 0.00000
0

Dari pengujian yang kedua didapat bahwa nilai ADFstatistik lebih besar dari
critical value dan probabilitasnya signifikan pada tingkat keyakinan 1%. Hal ini
berarti data telah stasioner pada first difference. Secara tidak langsung ordo
integrasi telah ditemukan, yaitu d = 1. Berikutnya adalah penentuan ordo
suku AR dan MA.

b. Penentuan Ordo AR – MA
Lakukan pengujian correlogram, dengan hasil derajat integrasi yang diperoleh
dari uji unit root dan biarkan Eviews menentukan panjang lag maksimumnya.
Lakukan prosedur berikut ini:
Klik View – Correlogram – First Difference - OK
Cara melihat stasioner atau
tidaknya model bisa di lihat dari
nilai AC dan PAC dibandingkan
dengan + 1.96 ( ), atau sama
dengan
+1.96( )=
+ 1.96 (0.1066)= -0.208 sd +
0.208
Jadi kalau AC dan PAC ada
diantara
-0.208 sd + 0.208 maka datanya
stasioner namun jika diluar angka
-0.208 sd + 0.208 maka tidak
stasioner

Tampak pada lag(1) AC dan PAC

Dari grafik diatas terlihat bahwa terjadi pelanggaran garis batang AC pada lag
1, 8, dan 12, maka kita memiliki kandidat MA (1). Dari grafik batang PAC,
terlihat kalau pelanggaran garis batas juga terjadi pada lag 1, maka diperoleh
juga kandidat AR (1). 3 kandidat model yang akan digunakan adalah bentuk
ARIMA (1,1,1); ARIMA (1,1,0) atau ARI (1) dan ARIMA (0,1,1) atau IMA (1).
Selanjutnya adalah penentuan model terbaik.
c. Penentuan Model Terbaik.
Untuk model ARIMA (1,1,1) : Klik Quick – Estimate equation – Ketik:
d(gdp) c AR(1) MA(1) – OK
Jangan lupa untuk memberi nama persamaan tersebut, Klik Name – Arima –
OK

Variable Coefficien Std. Error t-Statistic Prob.


t
C 23.50643 5.942537 3.955622 0.0002
AR(1) 0.499690 0.275101 1.816384 0.0729
MA(1) - 0.312614 -0.644572 0.5210
0.201502
R-squared 0.105750 Mean dependent 23.3453
var 5
Adjusted R-squared 0.084202 S.D. dependent var 35.9379
4
S.E. of regression 34.39166 Akaike info criterion 9.94776
6
Sum squared resid 98171.24 Schwarz criterion 10.0333
8
Log likelihood - F-statistic 4.90760
424.7539 6
Durbin-Watson stat 1.994227 Prob(F-statistic) 0.00967
3
Inverted AR Roots .50
Inverted MA Roots .20

Hasil regresi pada model ARIMA (1,1,1) menunjukkan bahwa probabilitas


MA(1) tidak signifikan, yaitu sebesar 0,5210, maka model ini dinyatakan
gugur.
Selanjutnya kita akan melihat model yang kedua yaitu model ARI(1)
Klik Quick – Estimate equation – ketik: d(gdp) c AR(1) – OK. Kemudian
namai persamaan tersebut, misal ARI. Begitu pula untuk model yang ketiga
yaitu, IMA (1), kembali Klik Quick – Estimate equation – ketik: d(gdp) c
MA(1) - OK
Variable Coefficien Std. Error t-Statistic Prob.
t
C 23.44152 5.412216 4.331223 0.0000
AR(1) 0.317238 0.102975 3.080716 0.0028
R-squared 0.101516 Mean dependent 23.3453
var 5
Adjusted R-squared 0.090820 S.D. dependent var 35.9379
4
S.E. of regression 34.26717 Akaike info criterion 9.92923
4
Sum squared resid 98636.06 Schwarz criterion 9.98631
1
Log likelihood - F-statistic 9.49080
424.9570 9
Durbin-Watson stat 2.034425 Prob(F-statistic) 0.00279
1
Inverted AR Roots .32

Variable Coefficien Std. Error t-Statistic Prob.


t
C 22.79699 4.666313 4.885441 0.0000
MA(1) 0.258497 0.104584 2.471667 0.0154
R-squared 0.080866 Mean dependent 22.9333
var 3
Adjusted R-squared 0.070053 S.D. dependent var 35.9344
8
S.E. of regression 34.65297 Akaike info criterion 9.95136
4
Sum squared resid 102070.4 Schwarz criterion 10.0080
5
Log likelihood - F-statistic 7.47836
430.8843 7
Durbin-Watson stat 1.911508 Prob(F-statistic) 0.00759
8
Inverted MA Roots -.26

Model ARI(1) dan IMA(1), memiliki nilai probabilitas yang signifikan, hal ini
didukung pula oleh nilai │IRM│< 1. Maka pemilihan modeol terbaik akan
dilanjutkan dengan pengujian autokorelasi.
Lakukan uji correlogram Q stat, Klik View – residual test – correlogram Q
statistic - OK
Correlogram AR Correlogram MA
Ternyata kedua model berhasil menyelesikan permasalahan autokorelasi
masing-masing, terlihat dari nilai Q-stat yang tidak signifikan di setiap lag.
Maka langkah terakhir pemilihan model akan bergantung pada nilai SC yang
lebih kecil. ARI (1) memiliki nilai SC sebesar 9.986, sementara IMA (1) sebesar
10.00805, maka model ARI(1)- lah yang terbaik.
Model Adjusted R- AIC SC
square
IMA (1) 0.070053 9.951364 10.00805
ARI (1) 0.09082 9.929234 9.986311
ARIMA (1,1,1) 0.084202 9.947766 10.03338
d. Peramalan
Dengan menggunakan model ARI(1), kita lakukan pengecekan kelayakan
model bagi peramalan. Dalam hal ini data yang digunakan adalah data asli,
yaitu GDP, karena data ini yang akan diramal. Klik Forecast – pilih GDP -
OK
Terlihat bahwa nilai bias proportion sebesar 0.053880 (dibawah 0.2),
sementara covariance proportion 0.856076 (hampir mendekati 1), maka
model ini dapat meramal nilai GDP kedepan.
Bila mengasumsi model sudah benar, maka langkah selanjutnya
adalah memperpanjang range data. Pada menu utama :
Klik Procs – Change workfile range (ubah End date menjadi 1992:1) –
OK
Ubah juga sample data : Procs – sample – ketik tahun yang akan
diforcast

Kembali ke estimasi : Procs - Make model – Solve – OK

Jangan lupa diganti tahun


estimasi yang diinginkan
Contoh :
1970:1 1992:1

Langkah berikutnya anda buka ar1


Langkah berikutnya anda klik menu solve

Sehingga akan terbentuk variabel forecast gdpf dengan tambahan nilai


konsumsi 1992:1

1991:2 4865.329
1991:3 4888.771
1991:4 4912.212
1992:1 4935.654
ARCH/GARCH
1. Pengantar
Data time series, terutama seperti data indeks saham, tingkat bunga,
nilai tukar, dan inflasi, sering kali bervolatilitas. Implikasi data yang
bervolatilitas adalah variance dari error tidak constant. Dengan kata lain
mengalami heteroskedatisitas. Implikasi dari adanya heteroskedatisitas
terhadap estimasi OLS tetap tidak bias, tetapi standart error dan interval
keyakinan menjadi terlalu sempit sehingga dapat memberikan sense of
precision yang salah.
Untuk menjawab pertanyaan-pertanyaan mengenai volatilitas,
peralatan standar yang digunakan adalah model Autoregressive Conditional
Heteroskedasticity Model (ARCH)/ Generalized Autoregressive Conditional
Heteroskedasticity Model (GARCH). Model ini menganggap variance yang
tidak constant (heteroskedatisitas) bukan suatu masalah, tetapi justru dapat
digunakan untuk modeling dan peramalan.
(lokasi file Excel berada di d:Eviews/data/data3 ARCH.xls)
ARCH Test:
F-statistic 6235215. Probabilit 0.000000
y
Obs*R-squared 635.9353 Probabilit 0.000000
y

Tampak hasil pengujian dengan menggunakan ARCH LM Test menunjukkan


hasil yang signifikan, oleh karena itu secara statistik kita menolak H nul (Ho)
yang berarti varian residual tidak konstan atau dengan kata lain model yang
digunakan mengandung unsur ARCH.

Model Estimasi ARCH


Untuk mengestimasi model ARCH dapat dilakukan dengan cara :
quick/estimate equation

Kemudian pilih metode estimasinya dengan menggunakan ARCH, lalu klik


metode tersebut sehingga aka muncul tampilan sebagai berikut :
Pada tampilan ini kalau
menghendaki model
ARCH saja maka isi
dengan (0) pada ARCH
specification order.

Sehingga akan menghasilan model estimasi sebagai berikut :

Dependent Variable: CPI


Method: ML - ARCH (Marquardt)
Date: 10/25/07 Time: 12:29
Sample(adjusted): 2 637
Included observations: 636 after adjusting endpoints
Convergence achieved after 14 iterations
Variance backcast: ON
Coefficien Std. Error z-Statistic Prob.
t
C 66.22193 24.37509 2.716787 0.0066
AR(1) 0.981749 0.004680 209.7636 0.0000
Variance Equation
C 534.3886 52.58769 10.16186 0.0000
ARCH(1) - 11.90989 -5.699856 0.0000
67.88467
R-squared 0.999511 Mean dependent 70.6462
var 3
Adjusted R-squared 0.999508 S.D. dependent var 48.2501
9
S.E. of regression 1.069711 Akaike info criterion 7.95114
7
Sum squared resid 723.1859 Schwarz criterion 7.97916
7
Log likelihood - F-statistic 430432.
2524.465 6
Durbin-Watson stat 0.029878 Prob(F-statistic) 0.00000
0
Inverted AR Roots .98

Tampak ARCH menunjukkan hasil yang signifikan berarti kesalahan prediksi


(residual) CPI dipengaruhi oleh residual kuadrat periode sebelumnya ARCH(1).
Namun dengan memasukkan unsur persamaan ARCH ini, apakah kemudian
model terbebas dari unsur ARCH? Lakukan pengujian dengan klik
View/Residual Test/ARCH LM Test
ARCH Test:
F-statistic 0.091028 Probability 0.76297
4
Obs*R-squared 0.091302 Probability 0.76252
8

Test Equation:
Dependent Variable: STD_RESID^2
Method: Least Squares
Date: 10/25/07 Time: 12:37
Sample(adjusted): 3 637
Included observations: 635 after adjusting endpoints
Variable Coefficien Std. Error t-Statistic Prob.
t
C 0.008176 0.004775 1.712304 0.0873
STD_RESID^2(-1) 0.011991 0.039745 0.301708 0.7630
R-squared 0.000144 Mean dependent 0.00827
var 5
Adjusted R-squared - S.D. dependent var 0.11995
0.001436 6
S.E. of regression 0.120042 Akaike info criterion -
1.39879
9
Sum squared resid 9.121638 Schwarz criterion -
1.38477
2
Log likelihood 446.1188 F-statistic 0.09102
8
Durbin-Watson stat 2.000168 Prob(F-statistic) 0.76297
4

Tampak hasil perhitungan menunjukkan nilai prob sebesar 0.762528 (lebih


besar dari 0.05), dengan demikian pada lag (1) secara statistik tidak signifikan
sehingga kita menerima hipotesis nul (Ho) yang berarti varian residual
konstan atau dengan kata lain model yang digunakan sudah tidak
mengandung unsur ARCH.

Model Estimasi GARCH


Untuk mengestimasi model GARCH dapat dilakukan dengan cara :
quick/estimate equation
Kemudian pilih metode estimasinya dengan menggunakan GARCH, lalu klik
metode tersebut sehingga aka muncul tampilan sebagai berikut :

Pada tampilan ini kalau


menghendaki model
GARCH saja maka isi
dengan (1) pada GARCH
specification order.

Sehingga akan menghasilan model estimasi sebagai berikut :


Dependent Variable: CPI
Method: ML - ARCH (Marquardt)
Date: 10/25/07 Time: 12:48
Sample(adjusted): 2 637
Included observations: 636 after adjusting endpoints
Failure to improve Likelihood after 26 iterations
Variance backcast: ON
Coefficien Std. Error z-Statistic Prob.
t
C 98.39845 11.72393 8.392958 0.0000
AR(1) 1.172699 0.024129 48.60187 0.0000
Variance Equation
C 1102.365 160.9089 6.850866 0.0000
ARCH(1) - 1.669584 -2.803013 0.0051
4.679865
GARCH(1) - 0.051387 -18.87462 0.0000
0.969905
R-squared 0.960115 Mean dependent 70.6462
var 3
Adjusted R-squared 0.959862 S.D. dependent var 48.2501
9
S.E. of regression 9.666630 Akaike info criterion 8.00914
9
Sum squared resid 58963.00 Schwarz criterion 8.04417
4
Log likelihood - F-statistic 3797.38
2541.909 7
Durbin-Watson stat 0.000473 Prob(F-statistic) 0.00000
0
Inverted AR Roots 1.17
Estimated AR process is nonstationary

Tampak GARCH menunjukkan hasil yang signifikan berarti varian kesalahan


prediksi (residual) CPI dipengaruhi oleh varian residual periode sebelumnya
GARCH(1). Nilai ARCH juga menunjukkan hasil yang signifikan berarti varian
kesalahan prediksi (residual) CPI dipengaruhi oleh varian residual kuadrat
periode sebelumnya GARCH(1)

Namun dengan memasukkan unsur persamaan GARCH ini, apakah kemudian


model terbebas dari unsur ARCH? Lakukan pengujian dengan klik
View/Residual Test/ARCH LM Test

ARCH Test:
F-statistic 405.6918 Probability 0.00000
0
Obs*R-squared 248.0180 Probability 0.00000
0

Test Equation:
Dependent Variable: STD_RESID^2
Method: Least Squares
Date: 10/25/07 Time: 12:53
Sample(adjusted): 3 637
Included observations: 635 after adjusting endpoints
Variable Coefficien Std. Error t-Statistic Prob.
t
C 0.160692 0.018725 8.581812 0.0000
STD_RESID^2(-1) 0.618926 0.030728 20.14179 0.0000
R-squared 0.390580 Mean dependent 0.42540
var 4
Adjusted R-squared 0.389617 S.D. dependent var 0.43019
3
S.E. of regression 0.336097 Akaike info criterion 0.66031
1
Sum squared resid 71.50446 Schwarz criterion 0.67433
8
Log likelihood - F-statistic 405.691
207.6488 8
Durbin-Watson stat 3.192647 Prob(F-statistic) 0.00000
0

Tampak hasil perhitungan menunjukkan nilai prob sebesar 0.000 (lebih kecil
dari 0.05), dengan demikian pada lag (1) secara statistik signifikan sehingga
kita menolak hipotesis nul (Ho) yang berarti varian residual tidak konstan atau
dengan kata lain model yang digunakan sudah masih mengandung unsur
ARCH.

ERROR CORRECTION MODEL (ECM)


1. Pengantar
Kointegrasi dapat diartikan sebagai suatu hubungan jangka panjang
(long term relationship/ekuilibrium) antara variabel-variabel yang tidak
stasioner. Keberadaan hubungan kointegrasi memberikan peluang bagi data-
data yang secara individual tidak stasioner untuk menghasilkan sebuah
kombinasi linier diantara mereka sehingga tercipta kondisi yang stasioner.
Secara sederhana, dua variabel disebut terkointegrasi jika hubungan kedua
variabel tersebut dalam jangka panjang akan mendekati atau mencapai
kondisi equilibriumnya. Error Correction Model (ECM) merupakan model yang
digunakan untuk mengoreksi persamaan regresi antara variabel-variabel yang
secara individual tidak stasioner agar kembali ke nilai equilibriumnya di
jangka panjang, dengan syarat utama berupa keberadaan hubungan
kointegrasi diantara variabel-variabel penyusunnya. Ada banyak cara untuk
melakukan uji kointegrasi, namun dalam modul ini hanya memaparkan Engle-
Granger Cointegration Test.

2. Petunjuk Operasional Dalam Eviews.


a. Uji Stasioneritas Data
Pada kasus ini, uji stasioneritas juga dilakukan pada setiap variabel.
Dengan cara yang sama seperti pada modul sebelumnya, maka didapat
bahwa hasil sebagai berikut:

(lokasi file Excel berada di d:Eviews/data/data4 ECM.xls)

Null Hypothesis: D(PDI) has a unit root


t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -9.592898 0.0000
Test critical values: 1% level -4.068290
5% level -3.462912
10% level -3.157836

Null Hypothesis: D(PCE) has a unit root


t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -7.567202 0.0000
Test critical values: 1% level -4.068290
5% level -3.462912
10% level -3.157836
*MacKinnon (1996) one-sided p-values.
Dimana kedua variabel stasioner pada tingkat first difference. Selanjutnya,
kedua variabel diregresi sehingga dihasilkan bentuk output Eviews sebagai
berikut:

Dependent Variable: PCE


Method: Least Squares
Date: 08/24/07 Time: 17:18
Sample: 1970:1 1991:4
Included observations: 88
Variable Coefficien Std. Error t-Statistic Prob.
t
PDI 0.967250 0.008069 119.8712 0.0000
C - 22.91725 -7.480880 0.0000
171.4412
R-squared 0.994051 Mean dependent 2537.04
var 2
Adjusted R-squared 0.993981 S.D. dependent var 463.113
4
S.E. of regression 35.92827 Akaike info criterion 10.0233
9
Sum squared resid 111012.3 Schwarz criterion 10.0796
9
Log likelihood - F-statistic 14369.1
439.0292 0
Durbin-Watson stat 0.531629 Prob(F-statistic) 0.00000
0

Hasil estimasi ini dapat ditulis ulang menjadi :


PCEt = -171.4412 + 0.967250 PDIt + ut

Residual dari persamaan regresi antara variabel PCE dan PDI diuji
stasioneritasnya dengan unit root test.
Null Hypothesis: RESID01 has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=11)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -3.779071 0.0002
Test critical values: 1% level -2.591813
5% level -1.944574
10% level -1.614315
*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(RESID01)
Method: Least Squares
Date: 10/25/07 Time: 13:20
Sample(adjusted): 1970:2 1991:4
Included observations: 87 after adjusting endpoints
Variable Coefficien Std. Error t-Statistic Prob.
t
RESID01(-1) - 0.072852 -3.779071 0.0003
0.275312
R-squared 0.142205 Mean dependent -
var 0.40587
7
Adjusted R-squared 0.142205 S.D. dependent var 26.1931
5
S.E. of regression 24.25937 Akaike info criterion 9.22691
1
Sum squared resid 50612.48 Schwarz criterion 9.25525
5
Log likelihood - Durbin-Watson stat 2.27751
400.3706 2

Hasil unit root test dapat ditulis dalam bentuk persamaan sebagai berikut:
∆ût = -0275132ut-1
Hasil uji unit root dari residual (u) kita bandingkan dengan nilai
�=φ 0+φ 1T-1+φ 2T-2
Jika nilai t-statistik > dari nilai �, maka residual tersebut (u) terkointegrasi.
Berdasarkan perhitungan nilai r = -2.899, sehingga karena nilai t-statistik
lebih besar dari nilai � (-3.779071) maka residualnya teritegrasi

Bentuk persamaan regresi ECM adalah sebagai berikut:


∆PCEt = α0 + α1∆PDI + α2ut-1 + ε t

Hasil regresi Eviews akan menghasilkan output pada tabel dibawah ini:
Dependent Variable: D(PCE)
Method: Least Squares
Variable Coefficien Std. Error t-Statistic Prob.
t
C 11.69183 2.195675 5.324936 0.0000
D(PDI) 0.290602 0.069660 4.171715 0.0001
RESID01(-1) - 0.054180 -1.600311 0.1133
0.086706
R-squared 0.171727 Mean dependent 16.9034
var 5
Adjusted R-squared 0.152006 S.D. dependent var 18.2902
1
S.E. of regression 16.84283 Akaike info criterion 8.51960
1
Sum squared resid 23829.19 Schwarz criterion 8.60463
2
Log likelihood - F-statistic 8.70791
367.6026 8
Durbin-Watson stat 1.923381 Prob(F-statistic) 0.00036
6

Hasil regresi ECM dapat dituliskan menjadi:


∆PĈEt = 11.69183 + 0.2906 ∆PDIt – 0.0867 ût-1

Dari persamaan diatas dapat dikatakan bahwa dalam jangka pendek PDI
mempunyai hubungan positif dengan PCE. Dapat dikatakan bahwa MPC dalam
jangka pendek sebesar 0.2906. Sedangkan MPC dalam jangka panjang
sebesar 0.967250 (didapat dari regresi awal).
Tabel Respon Surface For Critical Value Cointegration Test

n Model Size(%) Obs. φ ∞ φ 1 φ 2


1 No constant 1 600 -2,5658 -1,960 -10,04
No trend 5 600 -1,9393 -0,398 0,0
10 560 -1,6156 -0,181 0,0

1 Constant 1 600 -3,4335 -5,999 -29,25


No trend 5 600 -2,8621 -2,738 -8,36
10 600 -2,5671 -1,438 -4,48

1 Constant 1 600 -3,9638 -8,353 -47,44


With trend 5 600 -3,4126 -4,039 -17,83
10 600 -3,1279 -2,418 -7,58

2 Constant 1 600 -3,9001 -10,534 -30,03


No trend 5 600 -3,3377 -5,967 -8,98
10 600 -3,0462 -4,069 -5,73

2 Constant 1 600 -4,3266 -15,531 -34,03


With trend 5 560 -3,7809 -9,421 -15,06
10 600 -3,4959 -7,203 -4,01

3 Constant 1 560 -4,2981 -13,790 -46,37


No trend 5 560 -3,7429 -8,352 -13,41
10 600 -3,4518 -6,241 -4,85

3 Constant 1 600 -4,6676 -18,492 -59,20


With trend 5 600 -4,1193 -12,024 -21,57
10 600 -3,8344 -9,188 -5,19

4 Constant 1 560 -4,6493 -17,188 -59,20


No trend 5 560 -4,1000 -10,745 -21,57
10 600 -3,8110 -8,317 -5,19

4 Constant 1 600 -4,9695 -22,504 -50,22


With trend 5 560 -4,4294 -14,501 -19,54
10 560 -4,1474 -11,165 -9,88

5 Constant 1 520 -4,9587 -22,140 -37,29


No trend 5 560 -4,4185 -13,641 -21,16
10 600 -4,1327 -10,638 -5,48

5 Constant 1 600 -5,2497 -26,606 -49,56


With trend 5 600 -4,7154 -17,432 -16,50
10 600 -4,4245 -13,654 -5,77

6 Constant 1 480 -5,2400 -26,278 -41,65


No trend 5 480 -4,7048 -17,120 -11,17
10 480 -4,4242 -13,347 0,0

6 Constant 1 480 -5,5127 -30,735 -52,50


With trend 5 480 -4,9161 -20,883 -9,05
10 480 -4,6999 -16,445 0,0

VECTOR AUTOREGRESSIONS (VAR)


1. Pengantar
Metode Vector Autoregression (VAR) pertama kali dikembangkan oleh
Christoper Sims (1980). Kerangka analisis yang praktis dalam model ini akan
memberikan informasi yang sistematis dan mampu menaksir dengan baik
informasi dalam persamaan yang dibentuk dari data time series. Selain itu
perangkat estimasi dalam model VAR mudah digunakan dan diintepretasikan.
Perangkat estimasi yang akan digunakan dalam model VAR ini adalah fungsi
impulse respon dan variance decompotition.
Ada beberapa keuntungan dari VAR (Gujarati, 1995:387) yaitu :
1. VAR mampu melihat lebih banyak variabel dalam menganalisis
fenomena ekonomi jangka pendek dan jangka panjang.
2. VAR mampu mengkaji konsistensi model empirik dengan teori
ekonometrika.
3. VAR mampu mencari pemecahan terhadap persoalan variabel runtun
waktu yang tidak stasioner ( non stasionary ) dan regresi lancung (
spurious regresion ) atau korelasi lancung ( spurious correlation )
dalam analisis ekonometrika.

Metode yang ditekankan pada penerapan model VAR adalah


(Gujarati, 2003:853) :
1. Kemudahan dalam penggunaan, tidak perlu
mengkhawatirkan tentang penentuan variabel endogen dan variabel
eksogen. Semua variabel dianggap sebagai variabel endogen.
2. Kemudahan dalam estimasi, metode Ordinary Least
Square (OLS) dapat diaplikasikan pada tiap persamaan secara terpisah.
3. Forecast atau peramalan yang dihasilkan pada beberapa
kasus ditemukan lebih baik daripada yang dihasilkan oleh model
persamaan simultan yang kompleks.
4. Impulse Respon Function (IRF). IRF melacak respon saat
ini dan masa depan setiap variabel akibat perubahan atau shock suatu
variabel tertentu.
5. Variance Decompotition, memberikan informasi
mengenai kontribusi (persentase) varians setiap variabel terhadap
perubahan suatu variabel tertentu.
Di sisi lain, terdapat beberapa kritik terhadap model VAR menyangkut
permasalahan berikut (Gujarati, 2003:853) :
1. Model VAR merupakan model yang atheoritic atau tidak berdasarkan
teori, hal ini tidak seperti pada persamaan simultan. Pada persamaan
simultan, pemilihan variabel yang akan dimasukkan dalam persamaan
memegang peranan penting dalam mengidentifikasi model.
2. Pada model VAR penekanannya terletak pada forecasting atau
peramalan sehingga model ini kurang cocok digunakan dalam
menganalisis kebijakan.
3. Permasalahan yang besar dalam model VAR adalah pada pemilihan lag
length atau panjang lag yang tepat. Karena semakin panjang lag, maka
akan menambah jumlah parameter yang akan bermasalah pada
degrees of freedom.
4. Variabel yang tergabung pada model VAR harus stasioner. Apabila
tidak stasioner, perlu dilakukan transformasi bentuk data, misalnya
melalui first difference.
5. Sering ditemui kesulitan dalam menginterpretasi tiap koefisien pada
estimasi model VAR, sehingga sebagian besar peneliti melakukan
interpretasi pada estimasi fungsi impulse respon dan variance
decompotition.
Ada beberapa hal yang penting dalam melakukan estimasi
menggunakan model VECM (Harris,1995: 76) yaitu :
1. Data yang digunakan harus stasioner
2. Identifikasi bentuk model
3. Penentuan lag length optimal

2. Prosedur dalam Eviews


a. Uji Stasioneritas Data
Salah satu prosedur yang harus dilakukan dalam estimasi model
ekonomi dengan data time series adalah dengan menguji stasioneritas pada
data atau disebut juga stationary stochastic process. Data time series
dikatakan stasioner jika data tersebut tidak mengandung akar-akar unit (unit
root) dengan kata mean, variance, dan covariant konstan sepanjang waktu.
Pengujian akar-akar unit root dilakukan dengan metode Augmented Dickey
Fuller ( ADF), yaitu dengan membandingkan nilai ADFstatistik dengan Mackinnon
critical value 1%, 5%, dan 10%.
Lakukan prosedur berikut :
Workfile – Klik variabel yang akan di uji – View - Unit root test

(lokasi file Excel berada di d:Eviews/data/data5 VAR.xls)


Kemudian akan muncul tampilan seperti dibawah ini :

Kita akan menguji data pada tingkat level I(0). Jika nilai ADFstatistik lebih besar
dari Mackinnon critical value, maka data tidak mengandung unit root sehingga
data dikatakan stasioner. Demikian pula sebaliknya, jika nilai ADFstatistik lebih
kecil dari t-statistik pada Mackinnon critical value berarti terdapat unit root
sehingga data dikatakan tidak stasioner.

Null Hypothesis: M1 has a unit root


Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -0.931216 0.9419
Test critical values: 1% level -4.211868
5% level -3.529758
10% level -3.196411
*MacKinnon (1996) one-sided p-values.

Dari hasil pengujian ternyata variabel M1 pada tingkat level tidak


stasioner. Hal ini dapat dilihat pada nilai ADF test statistic yang lebih kecil dari
test critical values-nya, baik 1%, 5%, dan 10%. Selain itu juga terlihat nilai
probabilitas yang lebih besar dari α = 10%. Jika dari hasil uji stasioneritas
berdasarkan uji ADF diperoleh data seluruh variabel belum stasioner pada
level, maka untuk memperoleh data yang stasioner dapat dilakukan dengan
cara differencing data, yaitu dengan mengurangi data tersebut dengan data
periode sebelumnya, sehingga akan diperoleh data dalam bentuk first
difference.
Setelah data dirubah kedalam bentuk first difference maka diperoleh
hasil sebagai berikut:

Null Hypothesis: D(M1) has a unit root


Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -5.065505 0.0011
Test critical values: 1% level -4.219126
5% level -3.533083
10% level -3.198312
*MacKinnon (1996) one-sided p-values.

Null Hypothesis: D(R) has a unit root


Exogenous: Constant, Linear Trend
Lag Length: 1 (Automatic based on SIC, MAXLAG=9)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -4.478920 0.0053
Test critical values: 1% level -4.226815
5% level -3.536601
10% level -3.200320
*MacKinnon (1996) one-sided p-values.

Baik pada variabel M1 dan R data telah stasioner pada tingkat first difference.
Dapat dilihat bahwa nilai ADF test statistic kedua variabel lebih besar dari
nilai test critical values-nya dan nilai probabilitas keduanya signifikan pada α
= 1%. Sehingga kedua variabel tersebut telah stasioner.

b. Penetuan Lag Optimal


Penentuan jumlah lag dalam model VAR ditentukan pada kriteria
informasi yang direkomendasikan oleh Final Prediction Error (FPE), Aike
Information Criterion (AIC), Schwarz Criterion (SC), dan Hannan-Quinn (HQ).
Tanda bintang menunjukkan lag optimal yang direkomendasikan oleh kriteria
diatas.
Lakukan prosedur berikut:
Tandai seluruh variabel – Klik kanan – Open – as VAR – OK
Dari VAR Estimation - Pilih View – Lag Structure - Lag Length Criteria

VAR Lag Order Selection Criteria


Endogenous variables: M1 R
Exogenous variables: C
Date: 08/23/07 Time: 07:32
Sample: 1979:1 1988:4
Included observations: 37
Lag LogL LR FPE AIC SC HQ
0 -449.4532 NA 1.36E+08 24.40288 24.48995 24.43357
1 -350.3133 182.2030 794237.8 19.26018 19.52141 19.35227
2 -341.5657 15.13099* 616075.2* 19.00355* 19.43893* 19.15704*
3 -339.9341 2.645821 704361.8 19.13157 19.74111 19.34646
* indicates lag order selected by the criterion
Dari hasil diatas terlihat bahwa semua tanda bintang berada pada lag 2. Hal
ini menunjukkan bahwa lag optimal terletak pada lag 2.
c. Uji Kausalitas Granger
Uji Kausalitas Granger digunakan untuk melihat arah hubungan suatu
variabel dengan variabel yang lain. Bagaimana pengaruh x terhadap y dengan
melihat apakah nilai sekarang dari y bisa dijelaskan dengan nilai historis y
serta melihat apakah penambahan lag x bisa meningkatkan kemampuan
menjelaskan model. Adapun persamaan Granger-Causality adalah:
n n
Yt = ∑β1 j Yt − j + ∑β2 j X t − j + u1t
j =1 j =1
n n
X t = ∑γ 1 j Yt − j + ∑γ 2 j X t − j + u 2t
j =1 j =1
Dalam penelitian ini, ada beberapa kasus yang dapat diintepretasikan dari
persamaan Granger Causality diatas (Gujarati,2003:696-697) :
1. Unidirectional causality dari Y ke X, artinya kausalitas satu arah dari Y
ke X terjadi jika koefisien lag Y pada persamaan Yt adalah secara
statistik signifikan berbeda dengan nol, koefisien lag X pada
persamaan Xt sama dengan nol,
2. Unindirectional causality dari X ke Y, artinya kausalitas satu arah dari X
ke Y terjadi jika koefisien lag X pada persamaan Xt adalah secara
statistik signifikan berbeda dengan nol dan koefisien lag Y pada
persamaan Yt secara statistik signifikan sama dengan nol.
3. Feedback/bilaterall causality, artinya kausalitas timbal balik yang
terjadi jika koefisien lag Y dan lag X adalah secara statistik signifikan
berbeda dengan nol pada kedua persamaan Yt dan Xt di atas.
4. Independence, artinya tidak saling ketergantungan yang terjadi jika
koefisien lag Y dan lag X adalah secara statistik sama dengan nol pada
masing-masing persamaan Yt dan Xt diatas.

Sedangkan hipotesis statistik untuk pengujian kausalitas dengan


menggunakan pendekatan Granger adalah :
t
Ho : ∑βi =1
it = 0 artinya suatu variabel tidak mempengaruhi variabel lain
t
H1 : ∑β
i =1
it ≠ 0 artinya suatu variabel mempengaruhi variabel lainnya.
Lakukan prosedur berikut:
Tandai semua variabel – Klik kanan, pilih Open – as Group
Setelah workfile semua variabel muncul pilih: View – Granger
Causality
Pairwise Granger Causality Tests
Lags: 2
Null Hypothesis: Obs F-Statistic Probability
R does not Granger Cause M1 38 12.9266 7.1E-05
M1 does not Granger Cause R 3.22343 0.05263

Dari hasil pengujiann Granger disebutkan bahwa Ho menyatakan R


tidak mempengaruhi M1 dan M1 tidak mempengaruhi R. Dengan melihat nilai
probabilitas sebesar 7.1E-05 maka Ho ditolak, berarti R mempengaruhi M1.
Selanjutnya untuk pernyataan yang kedua, dengan probabilitas 0.05263 dan
pada α = 1% maka Ho ditolak. Sehingga M1 mempengaruhi R. Dari pengujian
Granger diatas dapat disimpulkan bahwa kedua variabel mempunyai
hubungan 2 arah atau saling mempengaruhi.

d. Estimasi VAR
Pada kasus ini persamaan VAR dapat ditulis sebagai berikut:
n n
M 1t = α + ∑ β j M 1t − j + ∑γ j Rt − j + u1t
j =1 j =1
n n
Rt = α + ∑ β j M 1t − j + ∑γ j Rt − j + u 2t
j =1 j =1

Dari Workfile, tandai semua variabel – Klik kanan – Open – as VAR –


pilih Unrestricted VAR – OK.
Vector Autoregression Estimates
Standard errors in ( ) & t-statistics in [ ]
D(M1) D(R)
D(M1(-1)) 0.169618 0.001629
(0.17182) (0.00056)
[ 0.98719] [ 2.90445]

D(M1(-2)) 0.257899 -0.000413


(0.16435) (0.00054)
[ 1.56921] [-0.76871]

D(R(-1)) -235.9120 0.161317


(53.3880) (0.17432)
[-4.41882] [ 0.92541]

D(R(-2)) -7.438080 0.137387


(58.2922) (0.19033)
[-0.12760] [ 0.72183]

C 222.8912 -0.533556
(113.810) (0.37161)
[ 1.95844] [-1.43580]
R-squared 0.414380 0.250815
Adj. R-squared 0.341178 0.157166
Sum sq. resids 7187605. 76.62843
S.E. equation 473.9332 1.547462
F-statistic 5.660741 2.678264
Log likelihood -277.7743 -65.96965
Akaike AIC 15.28510 3.836198
Schwarz SC 15.50279 4.053889
Mean 405.9368 -0.026126
dependent
S.D. dependent 583.8926 1.685579
Determinant Residual 536064.1
Covariance
Log Likelihood (d.f. -349.0536
adjusted)
Akaike Information Criteria 19.40830
Schwarz Criteria 19.84369

Untuk melihat apakah variabel M1 mempengaruhi R dan sebaliknya dapat


dilihat dengan cara membandingkan nilai t-statistic hasil estimasi dengan nilai
t-tabel. Jika nilai t-statistic lebih besar dari nilai t-tabelnya, maka dapat
dikatakan bahwa variabel M1 mempengaruhi R.

e. Fungsi Impulse Respon


Untuk mengetahui pengaruh shock dalam perekonomian maka
digunakan metode impulse respon function. Selama koefisien pada
persamaan struktural VAR di atas sulit untuk diintepretasikan maka banyak
praktisi menyarankan menggunakan impulse respon function. Fungsi impulse
respon menggambarkan tingkat laju dari shock variabel yang satu terhadap
variabel yang lainnya pada suatu rentang periode tertentu. Sehingga dapat
dilihat lamanya pengaruh dari shock suatu variabel terhadap variabel lain
sampai pengaruhnya hilang atau kembali ke titik keseimbangan. Fungsi ini
akan melacak respon dari variabel tergantung apabila terdapat shock dalam
u1 dan u2.
Lakukan Prosedur berikut ini:
Dari Hasil Estimasi VAR – View – Impulse Respon
Impulse Respon – Multiple graph - Analytic

Dari hasil diatas, dapat diintepretasikan sebagai berikut:


 Pada kuadran kanan atas, menunjukkan perubahan variabel M1 dalam
merespon adanya shock/perubahan variabel R. Pada awal periode,
adanya shock pada R direspon negatif oleh M1 hingga periode ke-2,
yaitu mencapai titik tertinggi. Setelah periode ke-2 mulai bergerak naik
hingga periode ke -5, kemudian bergerak menghimpit titik
keseimbangan.
 Pada kuadran kiri bawah, menunjukkan perubahan variabel R dalam
merespon adanya shock/perubahan variabel M1. Pada awal periode,
adanya shock pada M1 direspon positif oleh R hingga periode ke-3.
Setelah periode ke-3, kembali ketitik keseimbangan hingga lebih dari
periode lebih dari ke-10.
f. Variance Decompositions
Variance decompotition akan memberikan informasi mengenai proporsi
dari pergerakan pengaruh shock pada sebuah variabel terhadap shock
variabel yang lain pada periode saat ini dan periode yang akan datang.
Lakukan Prosedur berikut:
Dari hasil estimasi VAR – View – Variance Decompotition
Variance Decompotition – Table – None (standart Errors)

Variance Decomposition of D(M1):


Period S.E. D(M1) D(R)
1 473.9332 100.0000 0.000000
2 600.7910 63.20104 36.79896
3 617.5066 60.58988 39.41012
4 618.7257 60.37357 39.62643
5 619.1933 60.35171 39.64829
6 619.2605 60.35639 39.64361
7 619.2820 60.35240 39.64760
8 619.2870 60.35144 39.64856
9 619.2886 60.35114 39.64886
10 619.2889 60.35113 39.64887

Variance Decomposition of D(R):


Period S.E. D(M1) D(R)
1 1.547462 0.335039 99.66496
2 1.753751 20.38336 79.61664
3 1.787127 19.67987 80.32013
4 1.789185 19.63479 80.36521
5 1.790513 19.61104 80.38896
6 1.790990 19.61349 80.38651
7 1.791009 19.61517 80.38483
8 1.791011 19.61527 80.38473
9 1.791013 19.61530 80.38470
10 1.791014 19.61528 80.38472

Dari hasil di atas, dapat di intepretasikan sebagai berikut:


 Pada tabel pertama, menjelaskan tentang variance decompotition dari
variabel M1, variabel apa saja dan seberapa besar variabel tersebut
mempengaruhi variabel M1. Pada periode pertama, variabel M1
dipengaruhi oleh variabel itu sendiri (100%). Namun pada periode
kedua variabel R memberikan kontribusinya sebesar 36,79%, nilai ini
terus meningkat hingga periode ke-10 sebesar 39,64%.
 Pada tabel kedua, menjelaskan tentang variance decompotition dari
variabel R. Pada awal periode, variabel M1 memberikan pengaruhnya
sebesar 0,33%. Pada periode ke -2, pengaruhnya mulai meningkat
hingga 20,38%. Kemudian menurun sebesar 1% hingga periode ke-10,
yaitu sebesar 19,61%

g. Forecast
Metode VAR juga dapat digunakan untuk meramal data di periode yang
akan datang. Lakukan prosedur berikut: Klik Procs – Change Workfile
Range (Ubah End date: 1989:4)

Ubah juga pada sampel, Klik Procs – Sample – Ubah End date: 1989:4
Kembali ke estimasi VAR, Klik Procs – Make Model – Solve – OK
Maka di kertas kerja akan muncul data baru yang didalamnya terdapat data
periode yang diramalkan.

Hasil forecast akan tampak sebagai berikut :


Vector Error Correction Model (VECM)
1. Pengantar
VECM merupakan bentuk VAR yang terestriksi. Restriksi tambahan ini
harus diberikan karena keberadaan bentuk data yang tidak stasioner namun
terkointegrasi. VECM kemudian memanfaatkan informasi restriksi kointegrasi
tersebut kedalam spesifikasinya. Karena itulah VECM sering disebut sebagai
desain VAR bagi series nonstasioner yang memiliki hubungan kointegrasi.
Spesifikasi VECM merestriksi hubungan jangka panjang variabel-
variabel endogen agar konvergen ke dalam hubungan kointegrasinya, namun
tetap membiarkan keberadaan dinamisasi jangka pendek. Istilah kointegrasi
dikenal juga sebagai istilah error, karena deviasi terhadap ekuilibrium jangka
panjang dikoreksi secara bertahap melalui series parsial penyesuaian jangka
pendek.

2. Prosedur dalam Eviews


a. Uji Stasioneritas Data
Uji stasioneritas data dalam kasus ini digunakan untuk melihat tingkat
kestasioneritasan suatu data. Jika dalam suatu data terdapat derajat integrasi
yang berbeda maka diindikasikan adanya kointegrasi. Dengan prosedur yang
sama seperti modul sebelumya, didapat hasil uji kointegrasi sebagai berikut:
y = m + r
I(1) = I(0) I(1)

b. Penentuan Lag Optimal


Prosedur penentuan lag optiomal ini sama dengan ketika kita menentukan lag
optimal pada metode VAR. Namun, terdapat perbedaan jumlah lag pada
VECM. Ketika lag optimal pada VAR adalah p, maka lag pada VECM adalah p-1.

(lokasi file Excel berada di d:Eviews/data/data6 VECM.xls)

Prosedurnya: Tandai semua variabel – Klik kanan: as VAR.

Dari hasil estimasi VAR – View - Lag Structure - Lag Length Criteria
Lag LogL LR FPE AIC SC HQ
0 45.06723 NA 8.51E-05 -0.858515 -0.779383 -0.826508
1 257.3937 407.3201 1.34E-06 -5.008034 -4.691508* -4.880006
2 272.7921 28.59704 1.18E-06 -5.138614 -4.584692 -4.914564
3 281.1133 14.94429 1.20E-06 -5.124762 -4.333446 -4.804691
4 319.0398 65.79086 6.65E-07 -5.715099 -4.686387 -5.299006
*
5 328.3972 15.65928 6.63E-07* -5.722392* -4.456286 -5.210278
6 329.5543 1.865521 7.82E-07 -5.562333 -4.058831 -4.954197
7 335.7140 9.553857 8.36E-07 -5.504368 -3.763472 -4.800211
8 348.0830 18.42718* 7.89E-07 -5.573122 -3.594830 -4.772944

Berdasarkan hasil penentuan lag optimal, Lag optimal pada VAR adalah 5
(tanda bintang yang paling banyak). Maka lag optimal pada VECM adalah 4

c. Uji Kointegrasi
Lakukan prosedur berikut : Tandai semua variabel – Klik kanan: as VAR –
pilih VEC – Cointegration – pilih no.5 – OK
Kemudian muncul hasil estimasi VEC, Pilih View - Cointegration test –
pilih no.6 (summary) - OK

Akan muncul hasil sebagai berikut:


Perhatikan letak tanda bintang, tanda bintang menunjukkan lag yang
digunakan. Dari hasil regresi tersebut terdapat dua kriteria, yaitu SC dan AIC.
Keputusan penentuan kriteria antara SC dan AIC tidak dipermasalahkan.
Selain penentuan lag, dari hasil tersebut juga diperlukan dalam menentukan
spesifikasi deterministik. Penentuannya adalah dengan melihat letak tanda
bintang berada pada kolom apa Dari hasil tersebut, berdasarkan kriteria yang
kita pilih, misalnya AIC, maka spesifikasi deterministiknya adalah Linear
intercept and trend
Setelah tren data diketahui, langkah selanjutnya adalah menentukan
apakah data tersebut terkointegrasi atau tidak. Penentuan ini dapat dilihat
dengan membandingkan nilai Max-Eigen dan nilai trace-nya. Jika nilai Max-
Eigen dan nilai trace-nya lebih besar dari nilai kritis 1% dan 5% maka data
terkointegrasi.

Unrestricted Cointegration Rank Test


Hypothesiz Trace 5 Percent 1 Percent
ed
No. of Eigenvalue Statistic Critical Critical
CE(s) Value Value

None ** 0.235046 51.74072 42.44 48.45


At most 1 0.186624 24.67886 25.32 30.45
At most 2 0.037078 3.816108 12.25 16.26
*(**) denotes rejection of the hypothesis at the 5%(1%) level
Trace test indicates 1 cointegrating equation(s) at both 5% and 1% levels

Hypothesiz Max-Eigen 5 Percent 1 Percent


ed
No. of Eigenvalue Statistic Critical Critical
CE(s) Value Value

None * 0.235046 27.06186 25.54 30.34


At most 1 * 0.186624 20.86275 18.96 23.65
At most 2 0.037078 3.816108 12.25 16.26
*(**) denotes rejection of the hypothesis at the 5%(1%) level
Max-eigenvalue test indicates 2 cointegrating equation(s) at the 5% level
Max-eigenvalue test indicates no cointegration at the 1% level

Berdasarkan hasil uji kointegrasi, terlihat bahwa nilai Trace statistic


lebih besar dari nilai kritis 5% dan 1%. Selain itu, nilai Max-Eigen juga lebih
besar nilai kritis 5%, maka dapat disimpulkan bahwa data tersebut
terkointegrasi. Hal ini menujukkan behwa terdapat hubungan jangka panjang
antara variabel y, m, dan r. Terkointegrasinya suatu data menunjukkan sinyal
yang tepat untuk menggunakan metode VECM. Selanjutnya kita dapat
menentukan estimasi VECM.

d. Estimasi VECM
Dalam estimasi VECM ini akan menunjukkan hubungan antara variabel
satu dengan variabel lain baik dalam jangka panjang maupun jangka pendek.
Pada tabel bagian atas menunjukkan hubungan antar variabel dalam jangka
panjang, sedangkan bagian bawah menunjukkan hubungan jangka pendek.
Prosedur: Dari hasil kointegrasi sebelumnya, pilih estimate – pastikan
lag pada lag optimal – check lagi spesifikasinya sesuai dengan hasil
uji kointegrasi Johansen – pada endogenous variabel, pastikan
variabel dependent ada didepan – OK

(Lag Optimal 4, spesifikasi deterministiknya adalah Linear intercept and trend)

Vector Error Correction Estimates


Date: 10/26/07 Time: 23:25
Sample(adjusted): 6 106
Included observations: 101 after adjusting endpoints
Standard errors in ( ) & t-statistics in [ ]
Cointegrating Eq: CointEq1
Y(-1) 1.000000

M(-1) 0.261660
(0.05059)
[ 5.17208]

R(-1) -0.173293
(1.07856)
[-0.16067]

@TREND(1) -0.014203
(0.00183)
[-7.78090]
C -13.45238
Error Correction: D(Y) D(M) D(R)
CointEq1 0.007934 -4.783336 0.006771
(0.01536) (0.92859) (0.01736)
[ 0.51661] [-5.15120] [ 0.38998]

D(Y(-1)) -0.308585 19.62085 0.334980


(0.09643) (5.83017) (0.10901)
[-3.20015] [ 3.36540] [ 3.07303]

D(Y(-2)) -0.272241 14.05796 0.124763


(0.10212) (6.17436) (0.11544)
[-2.66585] [ 2.27683] [ 1.08075]

D(Y(-3)) -0.238260 12.22537 0.170040


(0.09873) (5.96948) (0.11161)
[-2.41319] [ 2.04798] [ 1.52351]

D(Y(-4)) 0.554164 14.92603 0.269248


(0.09161) (5.53857) (0.10355)
[ 6.04945] [ 2.69492] [ 2.60006]

D(M(-1)) 0.000507 0.199383 -0.000312


(0.00354) (0.21420) (0.00400)
[ 0.14322] [ 0.93084] [-0.07795]

D(M(-2)) -0.001527 0.126259 -0.000339


(0.00299) (0.18082) (0.00338)
[-0.51060] [ 0.69827] [-0.10032]

D(M(-3)) -0.000698 0.100044 0.000161


(0.00241) (0.14542) (0.00272)
[-0.29027] [ 0.68797] [ 0.05934]

D(M(-4)) 0.000885 0.052163 0.000283


(0.00170) (0.10253) (0.00192)
[ 0.52177] [ 0.50876] [ 0.14776]

D(R(-1)) -0.098170 -4.973172 -0.304232


(0.09380) (5.67144) (0.10604)
[-1.04656] [-0.87688] [-2.86907]

D(R(-2)) -0.114581 -5.638503 -0.127013


(0.09638) (5.82742) (0.10896)
[-1.18881] [-0.96758] [-1.16574]

D(R(-3)) -0.069431 -6.977150 -0.076394


(0.09694) (5.86081) (0.10958)
[-0.71626] [-1.19048] [-0.69716]

D(R(-4)) -0.194061 -1.270933 -0.087437


(0.09286) (5.61428) (0.10497)
[-2.08987] [-0.22638] [-0.83297]

C 0.008921 -0.430221 -0.006475


(0.00325) (0.19668) (0.00368)
[ 2.74250] [-2.18740] [-1.76076]
R-squared 0.683735 0.566555 0.200525
Adj. R-squared 0.636477 0.501788 0.081063
Sum sq. resids 0.038467 140.6189 0.049157
S.E. equation 0.021027 1.271342 0.023770
F-statistic 14.46814 8.747515 1.678571
Log likelihood 254.2770 -160.0249 241.8940
Akaike AIC -4.757961 3.446038 -4.512752
Schwarz SC -4.395469 3.808530 -4.150260
Mean dependent 0.007178 0.026289 5.69E-05
S.D. dependent 0.034876 1.801172 0.024796
Determinant Residual 3.99E-07
Covariance
Log Likelihood 336.7935
Log Likelihood (d.f. adjusted) 314.1878
Akaike Information Criteria -5.310650
Schwarz Criteria -4.119605

e. Fungsi Impulse Respon


Impulse respon pada kasus ini mempunyai fungsi yang sama dengan
impulse respon pada VAR. Fungsi impulse respon menggambarkan tingkat laju
dari shock variabel yang satu terhadap variabel yang lainnya pada suatu
rentang periode tertentu. Sehingga dapat dilihat lamanya pengaruh dari
shock suatu variabel terhadap variabel lain sampai pengaruhnya hilang atau
kembali ke titik keseimbangan. Fungsi ini akan melacak respon dari variabel
tergantung apabila terdapat shock dalam u1 dan u2.
Lakukan Prosedur berikut ini:
Dari Hasil Estimasi VECM – View – Impulse Respon
Impulse Respon – Multiple graph - Analytic

Cara membaca impulse respon dalam VECM juga sama dengan membaca
impulse respon dalam VAR. Pada kuadran atas tengah menggambarkan
bagaimana respon dari variabel Y ketida ada shock/perubahan pada variabel
M. Pada awal periode perubahan pada variabel M direspon positif oleh Y
hingga periode ke-3, kemudian kembali ke titik keseimbangan hingga period
eke-4. Setelah periode ke-4, kembali direspon positif hingga periode ke-7, dan
seterusnya. Cara analisis yang sama juga berlaku untuk kuadran-kuadran
yang lain.

f. Variance Decompotition
Variance decompotition akan memberikan informasi mengenai proporsi
dari pergerakan pengaruh shock pada sebuah variabel terhadap shock
variabel yang lain pada periode saat ini dan periode yang akan datang. Fungsi
variance decompotition pada VAR dan VECM adalah sama
Lakukan Prosedur berikut:
Dari hasil estimasi VECM – View – Variance Decompotition
Variance Decompotition – Table – None (standart Errors)

Variance Decomposition of Y:
Period S.E. Y M R
1 0.021139 100.0000 0.00000 0.000000
0
2 0.025839 97.57081 1.63851 0.790677
5
3 0.028262 96.09882 1.41930 2.481880
0
4 0.029422 95.01546 1.33994 3.644598
2
5 0.037348 93.50825 1.18823 5.303511
7
6 0.040533 92.78137 1.41642 5.802205
7
7 0.042433 92.01668 1.30773 6.675588
6
8 0.043511 91.52031 1.26283 7.216850
8
9 0.048385 91.46999 1.17967 7.350343
0
10 0.050719 91.23877 1.26440 7.496827
2

Variance Decomposition of M:
Period S.E. Y M R
1 1.278729 0.340643 99.6593 0.000000
6
2 1.321457 5.858214 93.5773 0.564415
7
3 1.327996 5.930684 92.7920 1.277274
4
4 1.336317 5.878751 91.8735 2.247720
3
5 1.338717 5.932915 91.7234 2.343645
4
6 1.339175 5.977487 91.6737 2.348770
4
7 1.346131 6.836227 90.7344 2.429338
3
8 1.349543 7.194223 90.2774 2.528300
8
9 1.349951 7.206192 90.2399 2.553895
1
10 1.350541 7.237450 90.1644 2.598108
4

Variance Decomposition of R:
Period S.E. Y M R
1 0.023764 0.974576 0.00778 99.01764
8
2 0.030144 9.346332 0.43728 90.21638
6
3 0.034270 12.11273 0.82366 87.06360
2
4 0.037618 15.28430 0.87892 83.83677
9
5 0.040741 20.03636 1.02073 78.94291
2
6 0.043801 24.49639 1.15164 74.35196
8
7 0.046135 25.91246 1.16444 72.92309
9
8 0.048313 27.02703 1.14719 71.82578
1
9 0.050671 28.67368 1.20195 70.12436
8
10 0.053074 30.49034 1.25172 68.25794
1

Cara membaca variance decompotition ini sama dengan sebelumnya


ketika VAR. Pada tabel pertama, menunjukkan variance decompotition dari
variabel Y. Pada awal periode baik variabel M maupun R tidak memberikan
pengaruh apa-apa terhadap Y. Sehingga pada awal periode Variabel Y
dipengaruhi oleh variabel itu sendiri. Pada periode ke-2 baik variabel M
maupun R mulai memberikan pengaruhnya, walaupun kontribusinya sangat
kecil. Hingga periode ke-10 kedua variabel tersebut memberikan pengaruh
yang kecil terhadap Y, kurang dari 10%. Analisis yang sama juga dilakukan
untuk variance decompotition yang lain.
Panel Data
1. Pengantar
Data panel atau pooled data adalah kombinasi dari data time series dan
data cross section. Dengan menggabungkan data time series dan cross
section (pooling), maka jumlah observasi bertambah secara signifikan tanpa
melakukan treatment apapun terhadap data.
Ada tiga metode yang bisa digunakan untuk bekerja dengan data panel.
Menurut Verbeek (2000:313-19) metode yang pertama adalah pendekatan
pooled least square (PLS) secara sederhana menggabungkan (pooled) seluruh
data time series dan cross section dan kemudian mengestimasi model dengan
menggunakan metode ordinary least square (OLS). Kedua, pendekatan fixed
effect (FE) memperhitungkan kemungkinan bahwa peneliti menghadapi
masalah omitted variables dimana omitted variables mungkin membawa
perubahan pada intercept time series atau cross section. Model dengan FE
menambahkan dummy variables untuk mengizinkan adanya perubahan
intercept ini. Ketiga, pendekatan efek acak (random effect) memperbaiki
efisiensi proses least square dengan memperhitungkan error dari cross
section dan time series.
a. Pooled least square
Yit = β1 + β2 + β3X3it +....+ βnXnit + uit ....................
(3.1)
b. Fixed effect
Yit = α1 + α2D2 + .....+ αnDn + β2X2it + ...+ βnXnit + uit ....................
(3.2)
c. Random effect
Yit = β1 + β2X2it + ...+ βnXnit + εit + uit ....................
(3.3)
Pemilihan Model Estimasi dalam Data Panel
Untuk menentukan metode antara pooled least square dan fixed effect
dengan menggunakan uji F sedangkan uji Hausman digunakan untuk memilih
antara random effect atau fixed effect. Dalam fixed effect, bentuk umum
regresi data panel adalah (Aulia, 2004:28):
Yit = β1 + β2X2it + β3X3it + ... + βnXnit + uit .....................
(3.4)
Selain itu, dalam teknik estimasi model regresi data panel, terdapat uji F
dan CHOW test dan uji Hausman. Uji F dapat digunakan untuk memilih teknik
dengan model pooled least square (PLS) atau model fixed effect dengan
rumus sebagai berikut (Gujarati, 2003:643):
( R 2 ur − R 2 r ) /( m )
F= (1− R 2 ur ) /( n − k )
....................

( 3.5)
Di mana:
R 2r = R2 model PLS
R2ur = R2 model FEM
m = jumlah restricted variabel
n = jumlah sample
k = jumlah variabel penjelas

Hipotesis nol dari pada restricted F test adalah :


H0 = Model Pooled Least Square (restricted)
H1 = Model Fixed Effect (unrestricted)

Dari rumus diatas, jika kita mendapatkan hasil nilai F hitung > F tabel pada
tingkat keyakinan ( α ) tertentu maka kita menolak hipotesis H0 yang
menyatakan kita harus memilih teknik PLS, sehingga kita menerima hipotesis
H1 yang menyatakan kita harus menggunakan model Fixed Effect untuk teknik
estimasi dalam penelitian ini.
Sedangkan uji Hausman digunakan untuk memilih antara metode
fixed effect atau metode random effect. Uji Hausman didapatkan melalui
command eviews yang terdapat pada direktori panel (Widarjono, 2005:272).
Rumus untuk mendapatkan nilai Chi Square uji Hausman adalah:

Matrix b_diff = b_fixed – b_random


Matrix var_diff = cov_fixed – cov_random
Matrix qform = @transpose(b_diff)*@inverse(var_diff)*b_diff

Hipotesis nol dari pada uji Hausman adalah :


H0 = random effect
H1 = fixed effect

Apabila Chi Sqare hitung > Chi Square tabel dan p-value signifikan maka H0
ditolak dan model fixed effect lebih tepat untuk digunakan ( Aulia, 2004:31).
Misal kita ingin mengetahui bagaimana investasi (Y) tergantung pada
nilai perusahaan (X2) dan stok modal (X3). Untuk hal tersebut ada empat data
perusahaan yaitu General Electric (GE), General Motor (GM), U.S. Steel (US),
dan Westinghouse (WEST). Data untuk tiap perusahaan dengan tiga variabel
tersebut tersedia untuk periode 1935-1954. Maka ada empat cross-sectional
units dan 20 time period. Untuk keseluruhan terdapat 80 observasi. X2 dan X3
diperkirakan berhubungan positif terhadap Y.
Pooling atau combining semua 80 observasi, kita dapat menulis fungsi
investasi sebagai berikut:
Yit = β1 + β2 X 2it + β3 X 3it + u it
i =1,2,3,4
t =1,2,..., 20
i menunjukkan unit cross-sectional ke-i dan t menunjukkan periode waktu i.

2. Prosedur dalam Eviews


Untuk menganalisa fungsi investasi dari empat perusahaan tadi maka kita
lakukan olah data dengan menggunakan perangkat Eviews. langkah-
langkahnya adalah:
Buka program Eviews. Klik File  New  Workfile

Selanjutnya akan muncul Workfile baru.

Pada Workfile tersebut Klik Objects  New Object.


Selanjutnya pada direktori New Object pilih Pool dan Klik OK.

Setelah Klik OK muncul Pool. Dibawah cross section identifiers kita isikan
unit cross-section. Kita tulis GE, GM, US, West sesuai dengan data yang ada
dalam program excel.
Setelah itu masih tetap pada Pool, Klik Procs  Import Pool data.

(lokasi file Excel berada di d:Eviews/data/data7 PANEL.xls)

Kemudian kita cari file data panel yang telah disimpan sebelumnya.

Maka tampilan pada Eviews akan tampak sebagai berikut:

Dalam Excel Spreadsheet import:


Pada Series order: pilih In Columns.
Pada Upper left data cell: ketik C2 karena data dimulai pada cell C2.
Pada Ordinary and Pool series to read: ketik Y? X2? X3?.
Pada Excel5 + sheet name : kita tulis sesuai sheet lokasi data kita.
Setelah semua lengkap Klik OK, maka pada lembar Workfile akan muncul
tampilan berikut:

Pada lembar Pool, Klik Procs  Estimate.

Kemudian muncul tampilan berikut:

a. Pooled least square (PLS) atau Common


Pada dependent variable : Ketik Y?
Pada common coefficient : Ketik X2? dan X3?.
Pada Intercept : Pilih none, common, fixed effect, atau random effect.
Misal kita Klik Common  OK. Maka estimasi pooled least square tampak
sebagai berikut:

Maka persamaanya menjadi :


^ = -63.30 + 0.11X2
it it + 0.3Xit + uit
Y
Selanjutnya kita coba dengan model fixed efect. Pada Pool Klik Objects 
Copy Object. Kemudian muncul dua Pool yang sama.
Beri nama salah satu Pool dengan Klik Name  Object Name, misalnya kita
beri nama pls karena menunjukkan hasil estimasi pooled least square.

b. Fixed Effect
Pada Pool yang belum kita beri nama Klik Estimate dan langkahnya
sama seperti semula. Sekarang pada Intercept Klik fixed effect  OK.

Estimasi Fixed effect akan muncul sebagai berikut:


Hasil fixed effect menjadi :
^ = -245.79 – 84.22D
it + 93.84D3i- 59.22D4i+0.107X2it+0.346X3it+uit
2i
Y

c. Random Effect
Dengan langkah yang sama kita beri nama Pool estimasi fixed effect dan
random effect. Jika estimasi fixed effect kita beri nama fix, kemudian estimasi
random effect diberi nama ran maka pada Workfile muncul ketiga Pool.
Hasilnya terlihat pada tampilan berikut:
Untuk menghasilkan hasil regresi dengan random effect pada pooled
estimation pilih intercept/random effect
Hasil persamaan random effect sebagai berikut :
^ it = -73.03 + 0.1X2it + 0.34X3it + ε i + uit
Y
Catatan : Pertama apabila nilai random effect dari keempat perusahaan
dijumlah maka hasilnya nol. Kedua, nilai rata-rata random error component,
ε it, adalah nilai intersep common sebesar -73.03. Nilai random effect GE
sebesar -169.92 menunjukkan seberapa besar perbedaan komponen random
error dari GE dari nilai intersep common. Ketiga nilai R2 diperoleh dari
transformasi GLS regression.
Kembali ke eviews, kita beri nama pool estimasi pooled least square, fixed
effect, dan random effect. Estimasi pooled test square telah kita namakan
dengan pls, estimasi fixed effect kita beri nama fix dan estimasi random
effect diberi nama ran, sehingga workfile yang muncul dari hasil common,
fixed effect, dan random effect tampak sebagai berikut :

d. Uji Hausman
Jika kita ingin menjalankan program tes Hausman ada beberapa
langkah yang harus dikalankan. Pertama, Workfile tersebut kita simpan dalam
Eviews data. Caranya Klik File  Save As. Cari Program Eviews 
Example Files  Data. Beri nama filenya misal lat2 lalu Klik OK.
Kemudian Klik File  Open  Program.

Cari Folder Eviews  folder Example files  folder cpr  Hausman.


prg  Open
Maka muncul program Hausman seperti tampilan dibawah ini. Pada program
ada beberapa command yang harus disesuaikan menurut Workfile kita.
Command tersebut adalah :
load..\data\lat2

Pada estimate fixed effects and store results:


fix.ls(f) y? x2? x3?
vector beta = fix.@coefs
matrix covar = fix.@cov

Pada keep only slope coefficients:


!nrow=@rows(beta)
vector b_fixed = @subextract(beta,1,1,!nrow,1)
matrix cov_fixed = @subextract(covar,1,1,!nrow,!nrow)

Pada estimate random effects and store results:


ran.ls(r) y? x2? x3?
beta = ran.@coefs
covar = ran.@cov
Pada keep only slope coefficients:
!nrow=@rows(beta)
vector b_gls = @subextract(beta,2,1,!nrow,1)
matrix cov_gls = @subextract(covar,2,2,!nrow,!nrow)

Setelah itu, Pada program Hausman Klik Run


Setelah itu akan muncul tampilan seperti dibawah ini.
Pada Run Program, isi Program name or path sesuai dengan lokasi
Workfile disimpan. Jika sudah Klik OK

Hasil tes Hausman akan muncul seperti di bawah ini. Ada dua nilai yaitu chi-
square dan nilai probabilitas.
Karena hasilnya tidak signifikan(0.967 > 0.05) maka pilih model FEM

PERSAMAAN SIMULTAN
1. Sifat Dasar Model Persamaan Simultan
Sebuah system persamaan simultan merupakan persamaan di mana
variabel tak bebas dalam satu atau lebih persamaan juga merupakan variabel
bebas di dalam persamaan lainnya. Maka, sebuah variabel memiliki dua
peranan sekaligus sebagai variabel bebas dan variabel tak bebas. Dalam
sebuah persamaan simultan dikenal istilah – istilah sebagai berikut:
a. Sistem persamaan simultan atau model adalah suatu himpunan
persamaan dimana variabel tak bebas dalam satu atau lebih
persamaan juga merupakan variabel bebas dalam beberapa
persamaan lainnya, yaitu keadaan dimana didalam system persamaan
suatu variabel sekaligus memiliki dua peranan yaitu sebagai variabel
tak bebas dan variabel bebas.
b. Variabel endogen adalah variabel tak bebas dalam persamaan
simultan yang nilainya ditentukan di dalam system persamaan,
walaupun variabel-variabel tersebut mungkin juga muncul sebagai
variabel bebas didalam system persamaan. Variabel endogen dianggap
bersifat stokastik.
c. Variabel predetermined adalah variabel yang nilainya tidak ditentukan
secara langsung di dalam system. Variabel ini ditetapkan lebih dulu
dan nilainya ditetapkan lebih dulu (nonstokastik). Variabel
predetermined terbagi menjadi dua kategori, yaitu variabel eksogen
dan variabel lag endogen. Variabel lag dikategorikan sebagai
predetermine dengan asumsi tidak ada korelasi serial dengan error di
dalam persamaan yang mengandung variabel lag tersebut.
d. Model structural adalah model yang terdiri dari beberapa persamaan
yang dibentuk berdasarkan landasan teori. Model ini dapat dianggap
pula sebagai model dasar.
e. Bentuk persamaan sederhana/reduksi adalah sebuah penyelesaian
system persamaan simultan dimana variabel endogen dinyatakan
dalam variabel predetermine dan error. Persamaan reduksi diperoleh
dengan memecahkan system persamaan structural sedemikian rupa
sehingga bisa dinyatakan setiap variabel endogen dalam model
sebagai fungsi hanya dari variabel eksogen atau predetermined
variables dan error dalam modal. Secara umum, juga bisa dinyatakan
dalam bentuk implisit maupun eksplisit. Cara implisit lebih mudah
dilakukan, sedangkan cara eksplisit cukup susah karena harus mencari
besarnya nilai-nilai koefisien.

2. Contoh Model Persaman Simultan


a. Model permintaan dan penawaran.
Fungsi permintaan Qtd = α 0 + α1 Pt + u1t α1< 0
Fungsi penawaran Qts = β 0 + β1 Pt + u 2t β 1> 0

Dimana Qd adalah kuantitas yang diminta, Qs adalah kuantitas yang


ditawarkan, dan t adalah waktu.

b. Model Keynes untuk menetapkan pendapatan.


Fungsi konsumsi C t = β0 + β1Yt + u t 0<β1<1
Fungsi pendapatan Yt = C t + I t ( = S t )

Dimana C adalah belanja konsumsi, Y adalah pendapatan, I adalah Investasi


(diasumsikan bersifat eksogen), dan S adalah tabungan.

c. Model upah dan harga


Wt = α0 + α1UN t + α2 Pt + u1t
Pt = β0 + β1Wt + β2 Rt + β3 M t + u 2t

Dimana W adalah tingkat perubahan upah uang, UN adalah tingkat


penganggur, P adalah tingkat perubahan harga, R adalah tingkat
perubahan biaya modal, M adalah tingkat perubahan harga bahan baku yang
diimpor, T adalah waktu, dan u1, u2 adalah gangguan stokastik

3. Masalah Identifikasi/Pengidentifikasian
Pengidentifikasian adalah menaksir angka dari parameter persamaan
structural apakah dapat diperoleh dari koefisien bentuk yang direduksi dapat
ditaksir. Jika ini dapat dilakukan, kita mengatakan bahwa persamaan tertentu
diidentifikasikan (identified). Suatu persamaan yang diidentifikasikan bisa
berupa tepat (sepenuhnya) diidentifikasikan (exactly atau fully atau just
identified) atau terlalu diidentifikasikan (overidentified).
Dikatakan tepat diidentifikasikan jika nilai angka yang unik dari
parameter structural dapat diperoleh. Dikatakan terlalu diidentifikasikan
(overidentified) jika lebih dari satu nilai angka dapat diperoleh untuk beberapa
parameter persamaan structural.

3.1 Tidak Diidentifikasikan


Misal pada model persamaan permintaan dan penawaran diatas.
Kondisi keseimbangan bahwa permintaan sama dengan penawaran,
didapatkan,
α0 + α1 Pt + u1t = β0 + β1 Pt + u 2t
maka harga equilibrium (reduced form),
β0 − α0
Π0 =
α 1 − β1
Pt = Π0 + v t , dimana:
u − u1t
vt = 2t
α 1 − β1
kemudian Q equilibrium,
α1 β 0 − α 0 β1
Πt =
α1 − β1
Qt = Πt + wt , dimana:
α u − β1u1t
wt = 1 2t
α1 − β1
3.2 Just Identification
Misalnya mengikuti persamaan demand and supply :
Demand Function : Qt = α0 + α1 Pt + α 2 X t + u1t α1 < 0, α2 > 0
Supply Function : Qt = β0 + β1 Pt + u 2t β1 > 0

X = pendapatan konsumen, sebagai eksogen variabel.

Dengan mekanisme keseimbangan pasar, supply = demand:


α0 + α1 Pt + α 2 X t + u1t = β0 + β1 Pt + u 2t
didapatkan Pt:
β0 − α0
Π0 =
α1 − β1
α2
Pt = Π0 + Π1 X t + vt , dimana reduced form: Π1 = −
α1 − β1
u − u1t
vt = 2t
α1 − β1
kemudian Qt :
α 1 β 0 − α 0 β1
Π2 =
α 1 − β1
α β
Qt = Π2 + Π3 X t + wt , dimana : Π3 = − 2 1
α 1 − β1
α u − β1u1t
wt = 1 2t
α 1 − β1
Koefisien reduce form :
Π3
β0 = Π2 − β1Π0 dan β1 =
Π1

3.3 Overidentification
Dalam fungsi demand : Qt = α 0 + α1 Pt + α 2 X t + α3 Rt + u1t
Fungsi supply : Qt = β0 + β1 Pt + β2 Pt −1 + u 2 t

Dimana, R merepresentasikan kekayaan (wealth).


Dengan cara yang sama didapat equilibrium harga dan kuantitas:
Pt = Π0 + Π1 X t + Π2 Rt + Π3 Pt −1 + vt
Qt = Π4 + Π5 X t + Π6 X t + Π7 Pt −1 + wt

α2 β0 − α0
Π1 = − Π0 =
α 1 − β1 α1 − β1
β2 α3
Π3 = Π2 = −
α 1 − β1 α1 − β1
α β α β − α 0 β1
dimana, Π5 = − 2 1 Π4 = 1 0
α 1 − β1 α1 − β1
αβ α β
Π7 = 1 2 Π6 = − 3 1
α 1 − β1 α1 − β1
u − u1t α u − β1u1t
vt = 2t wt = 1 2 t
α 1 − β1 α1 − β1

3.4 Melakukan Identifikasi


Order and Rank Condition merupakan aturan yang menjadi acuan
apakah suatu sistem persamaan dapat diselesaikan sehingga nilai koefisien
persamaan struktural dapat diperoleh. Menurut Order and Rank Condition,
agar sebuah sistem persamaan simultan dengan M persamaan struktural
dapat diidentifikasi maka setidaknya harus memiliki M-1 variabel endogen.
Jika jumlah variabel endogen tepat M-1 maka persamaan tersebut dikatakan
exactly identified dan jika jumlah variabel endogen lebih dari M-1 maka
persamaan tersebut dikatakan over identified atau agar sebuah sistem
persamaan simultan dengan M persamaan struktural dapat diselesaikan,
jumlah variabel predetermine yang ada dalam persamaan tersebut harus
tidak kurang dari jumlah variabel endogen yang ada dalam persamaan
dikurangi satu.
Maka, M = jumlah variabel endogen dalam model
m = jumlah variabel endogen pada setiap persamaan struktural
K = jumlah variabel predetermine dalam model
k = jumlah variabel predetermine pada setiap persamaan struktural
dalam model
a. Jika K-k = m-1 maka persamaan tersebut dikatakan exactly (just) identified
b. Jika K-k > m-1 maka persamaan tersebut over identified
c. Jika K-k < m-1 maka persamaan tersebut under identified

Metode yang dapat digunakan untuk menyelesaikan persamaan


simultan yaitu:
a. Indirect Least Square (ILS/ Metode kuadrat terkecil tidak langsung)
Metode ini digunakan pada persamaan struktural yang tepat
teridentifikasi (exactly identified). Langkah-langkah penyelesaian ILS adalah
sebagai berikut:
1. Mengubah persamaan struktural menjadi bentuk persamaan reduksi
2. Menerapkan metode OLS (Ordinary Least Square) untuk setiap persamaan
reduksi.
3. Mendapatkan nilai estimasi dari koefisien struktural asli dari koefisien
reduksi yang ditaksir dari langkah kedua..

b. Two Stage Least Square (2SLS/ Metode Kuadrat Terkecil Dua


Tahap)
2SLS digunakan untuk memperoleh nilai parameter struktural pada
persamaan yang teridentifikasi berlebih. Metode ini dapat diterapkan pada
suatu sistem persamaan individu dalam sistem tanpa memperhitungkan
persamaan lain secara langsung dalam sistem.

4. Aplikasi Pada Eviews


Menyelesaikan persamaan simultan dengan sistem just identified.
Misalnya model permintaan dan penawaran :
Fungsi demand : Qt = α 0 + α1 Pt + α 2 X t + u1t
d

Fungsi supply : Qt = β 0 + β1 Pt + u 2t
s

Berikut ini ada tiga cara yang dapat dipilih:

1. METODE 2SLS BERTAHAP


Langkah pertama untuk Eviews sama seperti olah data time series atau
cross section yaitu import data. Buka Eviews  Klik File  New 
Workfile.
Pilih Frequency dan Range data sesuai data yang digunakan.
Pada tampilan Workfile, Klik Procs  Import  Read Text-Lotus-Excel.
Cari data excel sesuai dengan tempat data disimpan. Klik Open.

(lokasi file Excel berada di d:Eviews/data/data8 simultan.xls)

Pada Workfile, Klik semua variabel  Klik kanan  Open  as Group.


Kemudian Klik Procs  Make Equation  Masukkan variable dalam
Equation Specification  Estimasi dengan metode Least Square 
Klik OK.
Pada estimasi pertama adalah P sebagai endogent variabel dan X sebagai
eksogent variabel.

Hasil regresi persamaan pertama keluar.


Selanjutnya pada Equation, Klik View  Actual, Fitted, Residual 
Actual, Fitted, Residual Table. Maka akan muncul tampilan tabel residual
grafiknya.

Tampilannya seperti berikut:

Blok seluruh data Fitted dan copy ke Group. Caranya Blok semua data
dalam kolom Fitted  Klik kanan  Copy.
Buka Group, Klik Edit+/-  tempatkan kursor pada kolom kosong
sebelah variabel X kemudian Klik kanan  Paste. Pastikan data telah
terkopi dengan lengkap dan benar.

Kemudian pada Group, Klik Procs  Make Equation  Tulis persamaan


pada Equation Specification, Q menjadi endogen variabel, Fitted menjadi
eksogen variabel  Method Least Square  Klik OK.

Hasil regresi persamaan model simultan seperti berikut:


2. METODE 2SLS (LANGSUNG)
Langkah awal sama seperti sebelumnya yaitu membuat workfile dan
mengimpor data. Jika data sudah selesai diimpor kedalam workfile maka
seperti tampilan berikut:

Blok data p,q, x  Klik kanan  Open  as Equation.

Muncul Equation Specification, ketik endogen variabel dan eksogen


variabel. Pilih Method Two-Stage Least Squares.
Pada Equation Specification, Q sebagai endogen variabel dan P sebagai
eksogen variabel. Klik OK. Estimation Setting menggunakan Two Stage
Least Squares. Klik OK.

Hasil regresi persamaan simultan tampak sebagai berikut:

3. METODE ILS
Buka Workfile dan Import data kedalam Workfile. Kemudian Blok
seluruh variabel dan Klik kanan  Open  as Group.
Ketik Q menjadi endogen variabel dan X menjadi variabel eksogen di
dalam kolom Equation Specification. Estimation setting gunakan
Method Least Square  Klik OK.

Hasil regresi persamaan pertama sebagai berikut:


Kemudian lakukan copy object untuk melakukan regresi persamaan kedua.
Pada Equation Klik Objects  Copy Object. Kemudian di Equation yang
baru buat estimasi seperti tampilan dibawah ini. P menjadi endogen variabel
dan X menjadi eksogen variabel. Estimation Setting menggunakan Method
Least Square.

Hasil regresi persamaan kedua telah didapatkan. Dua hasil regresi yang ada
menjadi sumber untuk mendapatkan persamaan model awal. Ambil koefisien
dari kedua hasil regresi ini dan kita hitung koefisien untuk persamaan awal.
5. ESTIMASI SYSTEM
Misalnya kita akan menyelesaikan persamaan berikut: .
Income Function : y1t = β1 + β2 y 2 t + β3 X 1t + β4 X 2 t + β5 X 3t + u1t
Money Supply Function : y 2t = β6 + β7 y1t + u 2 t
Dalam system Eviews, masukkan persamaan berikut:
Y1 = C(1)+C(2)*Y2+C(3)*X1+C(4)*X2+C(5)*X3
Y2 = C(6)+C(7)Y1
INST C X1 X2 X3

Langkah pertama membuat workfile dan mengimpor data dengan langkah


sama seperti data time series atau cross-section. Buka Eviews  Klik File 
New  Workfile.

Pada tampilan workfile, Klik Procs  Import  read Text-Lotus-Excel


(lokasi file Excel berada di d:Eviews/data/data9 simultan2.xls)

Impor data yang akan digunakan yakni data Y1, Y2, X1, X2, dan X3. Klik OK.

Klik Objects  New Object.


Kemudian muncul New Object dan pada Type object pilih System. Klik
OK.

Muncul System. Ketik semua persamaan yang ada dalam persamaan


simultan yang telah dipersiapkan dengan diawali persamaan perilaku,
persamaan identitas, dan diakhiri dengan instrument list.
Jika semua command sudah benar, Klik Estimate di Tampilan System,
tampak seperti tampilan di bawah. Pilih Two-Stage Least Square pada
Estimation Method dan Klik Simultaneous pada Iteration Control, Klik
OK.

Hasil regresi persamaan simultan tadi seperti gambar di bawah ini. Tugas
anda adalah menganalisis hasil regresinya.