Anda di halaman 1dari 31

BAHAN AJAR EKONOMETRI

AGUS TRI BASUKI


UNIVERSITAS MUHAMMADIYAH YOGAYAKARTA

PERBAIKAN ASUMSI KLASIK

6.1. Multikolinearitas

Jika model kita mengandung multikolinieritas yang serius yakni


korelasi yang tinggi antar variabel independen, Ada dua pilihan yaitu kita
membiarkan model tetap mengandung multikolinieritas dan kita akan
memperbaiki model supaya terbebas dari masalah multikolinieritas.

Tanpa Ada Perbaikan


Multikolinieritas sebagaimana kita jelaskan sebelumnya tetap
menghasilkan estimator yang BLUE karena masalah estimator yang BLUE
tidak memerlukan asumsi tidak adanya korelasi antar variabel independen.
Multikolinieritas hanya menyebabkan kita kesulitan memperoleh estimator
dengan standard error yang kecil. Masalah multikolinieritas biasanya juga
timbul karena kita hanya mempunyai jumlah observasi yang sedikit. Dalam
kasus terakhir ini berarti kita tidak punya pilihan selain tetap menggunakan
model untuk analisis regresi walaupun mengandung masalah
multikolinieritas.

Dengan Perbaikan
a. Menghilangkan Variabel Independen
Ketika kita menghadapi persoalan serius tentang
multikolinieritas, salah satu metode sederhana yang bisa dilakukakan
adalah dengan menghilangkan salah satu variabel independen yang
mempunyai hubungan linier kuat. Misalnya dalam kasus hubungan
antara tabungan dengan pendapatan dan kekayaan, kita bisa
menghilangkan variabel independen kekayaan.
Akan tetapi menghilangkan variabel independen di dalam suatu
model akan menimbulkan bias spesifikasi model regresi. Masalah bias
spesifikasi ini timbul karena kita melakukan spesifikasi model yang salah
di dalam analisis. Ekonomi teori menyatakan bahwa pendapatan dan
kekayaan merupakan faktor yang mempengaruhi tabungan sehingga
kekayaan harus tetap dimasukkan di dalam model.

1
b. Transformasi Variabel
Misalnya kita menganalisis perilaku tabungan masyarakat
dengan pendapatan dan kekayaan sebagai variabel independen. Data
yang kita punyai adalah data time series. Dengan data time series ini maka
diduga akan terjadi multikolinieritas antara variabel independen
pendapatan dan kekayaan karena data keduanya dalam berjalannya
waktu memungkinkan terjadinya trend yakni bergerak dalam arah yang
sama. Ketika pendapatan naik maka kekayaan juga mempunyai trend
yang naik dan sebaliknya jika pendapatan menurun diduga kekayaan juga
menurun.
Dalam mengatasi masalah multikolinieritas tersebut, kita bisa
melakukan transformasi variabel. Misalnya kita mempunyai model
regresi time series sbb:

Yt   0  1 X 1t   2 X 2t  et (6.1)

dimana :
Y = tabungan;
X1 = pendapatan;
X2 = kekayaan

Pada persamaan (6.1) tersebut merupakan perilaku tabungan pada


periode t, sedangkan perilaku tabungan pada periode sebelumnya t-1
sbb:

Yt 1   0  1 X 1t 1   2 X 2t 1  et 1 (6.2)

Jika kita mengurangi persamaan (6.1) dengan persamaan (6.2) akan


menghasilkan persamaan sbb:

Yt  Yt 1  (1 X 1t  1 X 1t 1 )  ( 2 X 2t   2 X 2t 1 )  (et  et 1 ) (6.3)

Yt  Yt 1  1 ( X 1t  X 1t 1 )   2 ( X 2t  X 2t 1 )  vt (6.4)

dimana vt = et – et-1

Persamaan (6.4) tersebut merupakan bentuk transformasi


variabel ke dalam bentuk diferensi pertama (first difference). Bentuk
diferensi pertama ini akan mengurangi masalah multikolinieritas karena
2
walalupun pada tingkat level X1 dan X2 terdapat multikolinieritas namun
tidak berarti pada tingkat diferensi pertama masih terdapat korelasi yang
tinggi antara keduanya.
Transformasi variabel dalam persamaan (6.4) akan tetapi
menimbulkan masalah berkaitan dengan masalah variabel gangguan.
Metode OLS mengasumsikan bahwa variabel gangguan tidak saling
berkorelasi. Namun transformasi variabel variabel gangguan vt = et – et-1
diduga mengandung masalah autokorelasi. Walaupun variabel gangguan
et awalnya adalah independen, namun variabel gangguan vt yang kita
peroleh dari transformasi variabel dalam banyak kasus akan saling
berkorelasi sehingga melanggar asumsi variabel gangguan metode OLS.

c. Penambahan Data
Masalah multikolinieritas pada dasarnya merupakan persoalan
sampel. Oleh karena itu, masalah multikolinieritas seringkali bisa diatasi
jika kita menambah jumlah data. Kita kembali ke model perilaku
tabungan sebelumnya pada contoh 6.5. dan kita tulis kembali modelnya
sbb:

Yi   0  1 X 1i   2 X 2i  ei (6.5)

dimana:Y= tabungan; X1= pendapatan; X2 = kekayaan.

Varian untuk  1 sbb:


2
var( ˆ1 )  2 (6.6)
x1i (1  r12 )
2

Ketika kita menambah jumlah data karena ada masalah


multikolinieritas antara X 1 dan X2 maka x1i2 akan menaik sehingga
menyebabkan varian dari ˆ1 akan mengalami penurunan. Jika varian
mengalami penurunan maka otomatis standard error juga akan
mengalami penurunan sehingga kita akan mampu mengestimasi  1 lebih
tepat. Dengan kata lain, jika multikolinieritas menyebabkan variabel
independen tidak signifikan mempengaruhi variabel dependen melalui
uji t maka dengan penambahan jumlah data maka sekarang variabel
independen menjadi signifikan mempengaruhi variabel dependen.

3
Contoh Kasus 6.1:

Data perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi di


Negara ABC sebagai berikut :

Tabel 6.1.
Perkembangan Ekspor, Konsumsi, impor,
angkatan kerja dan populasi

Tahun Eks Cons Imp AK Pop


1990 468359 119802 95842 72574728 181436821
1991 556306 140805 112644 73845896 184614740
1992 632582 157484 125987 75104839 187762097
1993 671218 192959 154367 76349299 190873248
1994 737948 228119 182495 77575965 193939912
1995 794926 279876 223901 78783138 196957845
1996 855022 332094 265676 79970646 199926615
1997 921714 387171 309737 81141540 202853850
1998 1024791 647824 518259 82301397 205753493
1999 698856 813183 650547 83457632 208644079
2000 883948 856798 685439 84616171 211540428
2001 889649 1039655 831724 85779320 214448301
2002 878823 1231965 985572 86947635 217369087
2003 930554 1372078 1097662 88123124 220307809
2004 1056442 1532888 1226311 89307442 223268606
2005 1231826 1785596 1428477 90501881 226254703
2006 1347685 2092656 1674125 91705592 229263980
2007 1462818 2510504 2008403 111244331 232296830
2008 1602275 2999957 2399966 113031121 235360765
2009 1447012 3290996 2632797 115053936 238465165
2010 1667918 3858822 3087057 116495844 241613126
2011 1914268 4340605 3472484 118515710 244808254
2012 1945064 4858331 3886665 120426769 248037853
2013 2026120 5456626 2359212 122125092 251268276
2014 2046740 6035674 2580527 124061112 254454778

4
Lakukan regresi  LS EKS C CONS IMP AK POP

Kita peroleh hasil persamaan regresi sebagai berikut :

Dependent Variable: EKS


Method: Least Squares
Date: 01/09/17 Time: 04:26
Sample: 1990 2014
Included observations: 25

Variable Coefficient Std. Error t-Statistic Prob.

C -892281.2 712567.2 -1.252206 0.2249


CONS 0.119704 0.049762 2.405542 0.0259
IMP 0.022910 0.064591 0.354693 0.7265
AK 0.007369 0.006623 1.112725 0.2790
POP 0.005041 0.003399 1.483299 0.1536

R-squared 0.959611 Mean dependent var 1147715.


Adjusted R-squared 0.951533 S.D. dependent var 488609.5
S.E. of regression 107567.9 Akaike info criterion 26.18649
Sum squared resid 2.31E+11 Schwarz criterion 26.43026
Log likelihood -322.3311 Hannan-Quinn criter. 26.25410
F-statistic 118.7968 Durbin-Watson stat 1.357171
Prob(F-statistic) 0.000000

Dari hasil output regresi diatas dapat kita susun persamaan sebagai berikut :

EKS = -892281 + 0.12*CONS + 0.023*IMP + 0.007*AK + 0.005*POP


(0.0498) (0.0645) (0.0066) (0.0033)
T hitung 2.4055*** 0.3546 1.1127 1.4832
R 2 = 0.959
F hitung = 118.796

Konsekuensi multikearitas adalah invalidnya signifikansi variable maupun


besaran koefisien variable dan konstanta. Multikolinearitas diduga terjadi
apabila estimasi menghasilkan nilai R kuadrat yang tinggi (lebih dari 0.8),
nilai F tinggi, dan nilai t-statistik semua atau hampir semua variabel penjelas
tidak signifikan. (Gujarati, 2003)

5
Untuk medeteksi awal apakah dalam suatu model mengandung
multikolinearitas, maka tindakan awal dengan melihat estimasi nilai R2 yang
tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik semua atau hampir
semua variabel penjelas tidak signifikan. Dari hasil diatas dapat kita lihat R 2
tinggi, F tinggi namun sebagian besar tidak signifikan. Artinya ada
kemungkinan model diatas mengandung multikolinearitas yang serius..

Uji selanjutnya, bandingkan R kuadrat regresi diatas dengan R kuadrat


regresi antar variable bebasnya.

Regres  LS AK IMP CONS POP C

Dependent Variable: AK
Method: Least Squares
Date: 01/09/17 Time: 04:49
Sample: 1990 2014
Included observations: 25

Variable Coefficient Std. Error t-Statistic Prob.

IMP 5.078742 1.816942 2.795215 0.0108


CONS 4.832311 1.255603 3.848599 0.0009
POP 0.137917 0.107873 1.278517 0.2150
C 47839133 21030811 2.274716 0.0335

R-squared 0.964931 Mean dependent var 93561606


Adjusted R-squared 0.959922 S.D. dependent var 17704591
S.E. of regression 3544388. Akaike info criterion 33.14528
Sum squared resid 2.64E+14 Schwarz criterion 33.34030
Log likelihood -410.3159 Hannan-Quinn criter. 33.19937
F-statistic 192.6086 Durbin-Watson stat 1.277394
Prob(F-statistic) 0.000000

Jika kita bandingkan R12 regresi LS EKS C CONS IMP AK POP dengan R22
regresi LS AK IMP CONS POP C, maka R12 = 0.959611lebih kecil dari R22 =
0.964931, sehingga dapat disimpulkan model diatas mengandung
multikolearitas.

Cara menghilangkan multikonearitas :

Dengan menghilangkan variable yang tidak signifikan

6
Misal variable konsumsi kita hilangkan

Regres  LS EKS C IMP AK POP

Dependent Variable: EKS


Method: Least Squares
Date: 01/09/17 Time: 05:02
Sample: 1990 2014
Included observations: 25

Variable Coefficient Std. Error t-Statistic Prob.

C -2058947. 578495.0 -3.559144 0.0019


IMP 0.010873 0.071359 0.152363 0.8804
AK 0.017615 0.005620 3.134436 0.0050
POP 0.007095 0.003646 1.946095 0.0651

R-squared 0.947925 Mean dependent var 1147715.


Adjusted R-squared 0.940486 S.D. dependent var 488609.5
S.E. of regression 119198.4 Akaike info criterion 26.36061
Sum squared resid 2.98E+11 Schwarz criterion 26.55563
Log likelihood -325.5077 Hannan-Quinn criter. 26.41470
F-statistic 127.4227 Durbin-Watson stat 1.280160
Prob(F-statistic) 0.000000

Hasil regresi diatas : R kuadrat yang tinggi (lebih dari 0.8), nilai F tinggi, dan
nilai t-statistik hampir semua variabel penjelas signifikan.

6.2. Heteroskedastisitas

Diketahui bahwa heteroskedastisitas tidak merusak sifat kebiasan dan


konsistensi dari penaksir OLS, tetapi penaksir tadi tidak lagi efisien yang
membuat prosedur pengujian hipotesis yang biasa nilainya diragukan. Oleh
karena itu diperlukan suatu tindakan perbaikan pada model regresi untuk
menghilangkan masalah heteroskedastisitas pada model regresi tersebut.
Tindakan perbaikan ini tergantung dari pengetahuan kita tentang varian dari
variabel gangguan. Ada dua pendekatan untuk melakukan tindakan
perbaikan, yaitu jika σ 2i diketahui dan jika σ2i tidak diketahui.

7
a. Varian Variabel gangguan Diketahui (i2 )
Jika kita mengetahui besarnya varian maka penyembuhan masalah
heteroskedastisitas bisa dilakukan melalui metode WLS yang merupakan
bentuk khusus dari metode Generalized Least Squares (GLS). Dari metode
WLS ini akhirnya kita bisa mendapatkan estimator yang BLUE kembali.
Untuk mengetahui bagaimana metode WLS ini bekerja, misalkan kita
mempunyai model regresi sederhana sbb:
Yi   0  1 X i  ei (6.7)
Jika varian variabel gangguan  i2 diketahui maka persamaan (6.7) dibagi
 i akan mendapatkan persamaan sbb:

Yi  0  i ei
   (6.8)
i i i i

Atau dapat ditulis sbb:


1
Yi    0
 1 X i  ei (6.9)
i
Persamaan (6.9) merupakan transformasi dari persamaan (6.7). Dari
metode transformasi ini kita akan mendapatkan varian variabel
gangguan yang konstan.

Var (ei )  (ei ) 2 (6.10)


2
e 
  i 
i 
1
 2 (ei2 )
i
karena varian variabel gangguan  i2 diketahui dan (ei2 )   i2 maka
1
 ( i2 )  1
 i
2

Varian dari transformasi variabel gangguan ei ini sekarang konstan.


Ketika kita mengaplikasikan metode OLS dalam persamaan transformasi
(6.9) maka kita akan mempunyai estimator yang BLUE. Namun perlu
diingat bahwa estimator pada persamaan awal yakni persamaan (6.7)
tetap tidak BLUE.

8
b. Ketika Varian Variabel gangguan Tidak Diketahui (I2 )
Dalam kenyataannya sulit kita mengetahui besarnya varian
variabel gangguan. Oleh karena itu dikembangkanlah metode
penyembuhan yang memberi informasi cukup untuk mendeteksi varian
yang sebenarnya. Ada beberapa metode yang dapat digunakan untuk
menyembuhkan masalah heteroskedastisitas.

Metode White
Jika kita tidak mengetahui besaranya varian variabel gangguan
maka kita tidak mungkin bisa menggunakan metode WLS. OLS estimator
sebenarnya menyediakan estimasi parameter yang konsisten jika terjadi
heteroskedastisitas tetapi standard errors OLS yang biasa tidak tepat
untuk membuat sebuah kesimpulan. White kemudian menggembangkan
perhitungan standard errors heteroskedastisitas yang dikoreksi
(heteroscedasticity-corrected standard errors). Untuk menjelaskan
metode White ini kita ambil contoh regresi sederhana sbb:

Yi   0  1 X i  ei (6.11)

Dimana var(ei )   i2

Jika model mempunyai varian variabel gangguan yang tidak sama maka
varian estimator tidak lagi efisien. Varian estimator ˆ1 menjadi:

 xi2 i2
var( ˆ1 )  (6.12)
( xi2 ) 2

Karena  i2 tidak bisa dicari secara langsung maka White mengambil


residual kuadrat eˆi2 dari persamaan (6.12) sebagai proksi dari  i2 .
Kemudian varian estimator ˆ1 dapat ditulis sbb:

 xi2 ei2
var( ˆ1 )  (6.13)
( xi2 ) 2

Sebagaimana ditunjukkan oleh White, varian ( ˆ1 ) dalam persamaan (6.13)


adalah estimator yang konsisten dari varian dalam persamaan (6.12).
Ketika sampel bertambah besar maka varian persamaan (6.13) akan
menjadi varian persamaan (6.12).
9
Prosedur metode White dilakukan dengan mengestimasi persamaan
(6.11) dengan metode OLS, dapatkan residualnya dan menghitung varian
berdasarkan persamaan (6.10). Bagi model regresi lebih dari satu variabel
independen maka kita harus mencari varian setiap variabel independen.
Untuk mengatasi masalah ini, beberapa program komputer seperti Eviews
menyediakan metode White ini.
Metode White tentang heteroscedasticity-corrected standard errors
didasarkan pada asumsi bahwa variabel gangguan et tidak saling
berhubungan atau tidak ada serial korelasinya. Untuk itu maka Newey,
Whitney dan Kennneth West menggembangkan metode dengan
memasukkan masalah unsur autokoralsi (6.13)

Mengetahui Pola Heteroskedastisitas


Kelemahan dari metode White adalah estimator yang didapatkan
mungkin tidak efisien. Metode lain yang bisa dilakukan adalah dengan
mengetahui pola heteroskedastisitas di dalam model. Pola ini bisa
diketahui melalui hubungan antara varian variabel gangguan dengan
variabel independen. Misalnya kita mempunyai model sbb:

Yi   0  1 X i  ei (6.14)

Kita asumsikan bahwa pola varian variabel gangguan dari persamaan


(6.14) adalah proporsional dengan Xi sehingga:

var (ei X i )  E (ei2 ) (6.15)


  Xi
2

untuk menghilangkan masalah heteroskedastisitas jika variabel gangguan


proporsional dengan variabel independen Xi, kita dapat melakukan
transformasi persamaan (6.15) dengan membagi dengan X i sehingga
akan menghasilkan persamaan sbb:

Y 0 Xi ei
  1 
Xi Xi Xi Xi
1
 0   1 X i  vi (6.16)
Xi
ei
dimana vi 
Xi

10
Sekarang kita bisa membuktikan bahwa varian variabel gangguan dalam
persamaan (6.16) tidak lagi heteroskedastisitas tetapi homoskedastisitas:

2
 e 
E (v )  E  i 
2
karena persamaan (6.16)
i
 X 
 i 

1
 (ei2 ) (6.17)
Xi
1 2
  Xi
Xi
  2 Karena persamaan (6.15)

Persamaan (6.17) tersebut berbeda dengan model persamaan regresi awal.


Sekarang kita tidak lagi mempunyai intersep sehingga kita bisa melakukan
regresi tanpa intersep untuk mengestimasi  0 dan  1. Kita kemudian bisa
mendapatkan regresi awal dengan cara mengalikan persamaan (6.16)
dengan X i .
Selain proporsional dengan variabel independen X, kita bisa
mengasumsikan bahwa pola varian variabel gangguan adalah proporsional
dengan X i2 sehingga:

E (ei2 )   2 X i2 (6.18)

Kemudian kita bisa melakukan transformasi persamaan (6.14) dengan


membagi Xi sehingga akan menghasilkan persamaan sbb:

Yi   e
 0  1  i
Xi Xi Xi Xi

1
 0   1  vi (6.19)
Xi
Kita dapat membuktikan bahwa varian variabel gangguan persamaan
(7.62) sekarang bersifat homoskedastisitas yaitu:
2
e 
E (v )  E  i 
2
i
 Xi 
1
 2 (ei2 )
Xi

11
1 2 2
  Xi
X i2
 2 karena persamaan (6.18) (6.20)

Dalam transformasi persamaan di atas konstanta dan slope persamaan


awal menjadi variabel independen dan variabel intersep baru.

Contoh Kasus 6.2:

Data perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi di


Negara DEF sebagai berikut :

Tabel 6.2.
Perkembangan Ekspor, Konsumsi, impor,
angkatan kerja dan populasi

Tahun Eks Cons Imp AK Pop


1990 468359 119802 95842 54431046 181436821
1991 556306 140805 112644 55384422 184614740
1992 632582 157484 125987 56328629 187762097
1993 671218 192959 154367 57261974 190873248
1994 737948 228119 182495 58181974 193939912
1995 794926 279876 223901 59087354 196957845
1996 855022 332094 265676 59977985 199926615
1997 921714 387171 309737 60856155 202853850
1998 1024791 647824 518259 61726048 205753493
1999 698856 813183 650547 62593224 208644079
2000 883948 856798 685439 84616171 211540428
2001 889649 1039655 831724 85779320 214448301
2002 878823 1231965 985572 86947635 217369087
2003 930554 1372078 1097662 88123124 220307809
2004 1056442 1532888 1226311 89307442 223268606
2005 1231826 1785596 1428477 90501881 226254703
2006 1347685 2092656 1674125 91705592 229263980
2007 1462818 2510504 2259453 111244331 232296830
2008 1602275 2999957 2699961 113031121 235360765
2009 1447012 3290996 2961896 115053936 238465165
2010 1667918 3858822 3472940 116495844 241613126
2011 1914268 4340605 3906545 118515710 244808254
12
Tahun Eks Cons Imp AK Pop
2012 1945064 4858331 3886665 120426769 248037853
2013 2026120 5456626 2359212 122125092 251268276
2014 2046740 6035674 2580527 124061112 254454778

Lakukan regresi  LS IMP C CONS EKS AK POP

Hasilnya sebagai berikut :

Dependent Variable: IMP


Method: Least Squares
Date: 01/09/17 Time: 05:38
Sample: 1990 2014
Included observations: 25

Variable Coefficient Std. Error t-Statistic Prob.

C 461161.8 3143958. 0.146682 0.8849


CONS -0.097674 0.214708 -0.454916 0.6541
EKS 1.514296 0.871794 1.736989 0.0978
AK 0.042048 0.015469 2.718159 0.0132
POP -0.019457 0.020484 -0.949864 0.3535

R-squared 0.899135 Mean dependent var 1387839.


Adjusted R-squared 0.878962 S.D. dependent var 1264205.
S.E. of regression 439823.8 Akaike info criterion 29.00299
Sum squared resid 3.87E+12 Schwarz criterion 29.24677
Log likelihood -357.5374 Hannan-Quinn criter. 29.07061
F-statistic 44.57112 Durbin-Watson stat 1.259764
Prob(F-statistic) 0.000000

Uji heteroskedastisitas dengan uji White


Pilih : view  Residual Diagnostics  Heteroskedasticity Test  White
 OK

13
Heteroskedasticity Test: White

F-statistic 16.78182 Prob. F(14,10) 0.0000


Obs*R-squared 23.97936 Prob. Chi-Square(14) 0.0461
Scaled explained SS 15.97986 Prob. Chi-Square(14) 0.3146

Karena nilai Prob. Chi-Square(14) 0,0461 lebih kecil dari 0,05, maka dapat
disimpulkan model diatas mengandung heteroskedastisitas.

Dalam analisis regresi diperlukan suatu metode untuk menduga parameter


agar memenuhi sifat BLUE (Best Linear Unbiased Estimator), salah satu
metode yang paling sering digunakan adalah Ordinary Least Square
(OLS)atau sering disebut dengan Metode Kuadrat Terkecil (MKT). Salah satu
asumsi klasik yang harus dipenuhi dalam estimasi OLS agar hasil estimasinya
dapat diandalkan, yaitu ragam sisaan homogeny E(u i2) = σ2
(homoskedastisitas). Pelanggaran terhadap asumsi homoskedastisitas
disebut heteroskedastisitas, yang artinya galat bersifat tidak konstan.
Konsekuensi dari terjadi heteroskedastisitas dapat mengakibatkan penduga
OLS yang diperoleh tetap memenuhi persyaratan tak bias, tetapi varian yang
diperoleh menjadi tidak efisien, artinya varian cenderung membesar sehingga
tidak lagi merupakan varian yang kecil. Dengan demikian model perlu
diperbaiki dulu agar pengaruh dari heteroskedastisitas hilang (Gujarati,
2003)
.
Perbaikan heteroskedastisitas dapat dilakukan melalui :
a. Melalui Logaritama
Lakukan regresi

 LS LOG(IMP) C LOG(CONS) lOG(EKS) LOG(AK) LOG(POP)

14
Dependent Variable: LOG(IMP)
Method: Least Squares
Date: 01/09/17 Time: 05:51
Sample: 1990 2014
Included observations: 25

Variable Coefficient Std. Error t-Statistic Prob.

C 284.8554 96.85826 2.940951 0.0081


LOG(CONS) 1.941547 0.351879 5.517657 0.0000
LOG(EKS) 0.635442 0.372278 1.706901 0.1033
LOG(AK) 0.700437 0.452365 1.548390 0.1372
LOG(POP) -16.65656 5.608760 -2.969740 0.0076

R-squared 0.985814 Mean dependent var 13.57581


Adjusted R-squared 0.982977 S.D. dependent var 1.221827
S.E. of regression 0.159415 Akaike info criterion -0.657761
Sum squared resid 0.508260 Schwarz criterion -0.413986
Log likelihood 13.22201 Hannan-Quinn criter. -0.590148
F-statistic 347.4638 Durbin-Watson stat 1.115773
Prob(F-statistic) 0.000000

Uji heteroskedastisitas dengan uji White


Pilih : view  Residual Diagnostics  Heteroskedasticity Test 
White  OK

Heteroskedasticity Test: White

F-statistic 3.011030 Prob. F(9,15) 0.0288


Obs*R-squared 16.09248 Prob. Chi-Square(9) 0.0650
Scaled explained SS 15.04800 Prob. Chi-Square(9) 0.0896

Karena nilai Prob. Chi-Square(9) sebesar 0,065, lebih besar dari 0,05,
maka dapat disimpulkan model diatas mengandung tidak
heteroskedastisitas.

15
b. cara mengatasi heteroskedastisitas pada regresi dengan metode
Weighted Least Square
.
Uji menguji ada tidaknya heteroskedastisitas dapatjuga digunakan Uji
Breusch Pagan Godfrey (BPG).

Hipotesis:
H0: tidak ada heteroskedastisitas
H1: ada heteroskedastisitas

Heteroskedasticity Test: Breusch-Pagan-Godfrey

F-statistic 12.01533 Prob. F(4,20) 0.0000


Obs*R-squared 17.65368 Prob. Chi-Square(4) 0.0014
Scaled explained SS 11.76442 Prob. Chi-Square(4) 0.0192

Berdasarkan perhitungan dengan metode BPG diperoleh bahwa H0


ditolak yang artinya terdapat masalah Heteroskedastisitas dalam model,
sehingga diperlukan adanya perbaikan pada model agar tidak
menyesatkan kesimpulan.

Persoalan heteroskedastisitas dapat ditangani dengan melakukan


pembobotan suatu faktor yang tepat kemudian menggunakan metode OLS
terhadap data yang telah diboboti. Pemilihan terhadap suatu faktor untuk
pembobotan tergantung bagaimana sisaan berkorelasi dengan X atau Y,
jika sisaan proporsional terhadap Xi maka model akan dibagi engan X i ,
jika sisaan adalah proporsional dengan sehingga model akan dibagi
dengan Xi2, selain proporsional dengan X1 dan Xi2 bisa juga diasumsikan
bahwa pola varian sisaan adalah proporsional dengan [E(Yi)]2 sehingga
dibagi dengan E(Yi) . Namun dalam prakteknya tidak selalu dengan
pembobotan 1 , 1 , 1 dapat mengatasi heteroskedastisitas karena
X 1 X 1 E Yi 
sesungguhnya pembobot yang diberikan bergantung pada pola sebaran
sisaan terhadap variabel bebas maupun variabel terikat. Oleh karena itu,
dalam penelitian ini faktor pembobot yang akan dianalisis adalah
1 1 1 , dan 1 (residual kuadrat).
, ,
X 1 X 1 E Yi  i

16
Pembobotan yang digunakan untuk mengatasi adalah dengan mengalikan
semua variable dengan 1 (residual kuadrat), sehingga diperoleh variable
i
baru sebagai berikut :

Tabel 6.3.
Variabel baru setelah pembobotan

Tahun Eks2 Cons2 Imp2 AK2 Pop2


1990 2.621783 0.670628 0.536503 304.6944 1015.648
1991 6.463996 1.636083 1.308867 643.5391 2145.13
1992 89.52568 22.28782 17.83026 7971.872 26572.91
1993 396.505 113.9855 91.18837 33826.06 112753.5
1994 -15.7647 -4.8733 -3.89864 -1242.94 -4143.13
1995 -12.048 -4.24184 -3.39348 -895.536 -2985.12
1996 -9.52208 -3.69842 -2.95873 -667.954 -2226.51
1997 -7.59771 -3.19146 -2.55317 -501.639 -1672.13
1998 -43.457 -27.4715 -21.9772 -2617.54 -8725.13
1999 1.095045 1.274185 1.019348 98.07796 326.9265
2000 -1.87041 -1.81296 -1.45037 -179.046 -447.614
2001 -2.87528 -3.36009 -2.68807 -277.233 -693.082
2002 -7.79908 -10.933 -8.74642 -771.614 -1929.03
2003 -16.1859 -23.8656 -19.0925 -1532.8 -3831.99
2004 -11.0095 -15.9747 -12.7797 -930.698 -2326.74
2005 -9.71356 -14.0803 -11.2643 -713.652 -1784.13
2006 -72.1373 -112.013 -89.6106 -4908.71 -12271.8
2007 -4.44035 -7.62058 -6.85852 -337.68 -705.132
2008 -23.6262 -44.2356 -39.812 -1666.69 -3470.49
2009 3.341787 7.600355 6.84032 265.7101 550.7208
2010 2.50583 5.797379 5.217641 175.0199 362.9924
2011 2.550768 5.783871 5.205484 157.9226 326.2078
2012 2.712767 6.775881 5.420705 167.9584 345.9367
2013 -2.29378 -6.17747 -2.67087 -138.258 -284.462
2014 -3.1197 -9.19976 -3.93332 -189.098 -387.848

Lakukan regresi  LS IMP2 C CONS2 EKS2 AK2 POP2

17
Method: Least Squares
Date: 01/09/17 Time: 05:47
Sample: 1990 2014
Included observations: 25

Variable Coefficient Std. Error t-Statistic Prob.

C 1.081297 0.055690 19.41639 0.0000


CONS2 -0.123846 0.033695 -3.675453 0.0015
EKS2 1.439465 0.054908 26.21585 0.0000
AK2 0.042008 0.001491 28.17096 0.0000
POP2 -0.016739 0.000594 -28.19219 0.0000

R-squared 0.999955 Mean dependent var -3.964814


Adjusted R-squared 0.999946 S.D. dependent var 28.37547
S.E. of regression 0.207613 Akaike info criterion -0.129424
Sum squared resid 0.862064 Schwarz criterion 0.114351
Log likelihood 6.617805 Hannan-Quinn criter. -0.061812
F-statistic 112074.9 Durbin-Watson stat 1.533574
Prob(F-statistic) 0.000000

Lakukan Uji heteroskedastisitas dengan uji White


Pilih : view  Residual Diagnostics  Heteroskedasticity Test 
Breusch-Pagan-Godfrey  OK

Heteroskedasticity Test: Breusch-Pagan-Godfrey

F-statistic 1.084458 Prob. F(4,20) 0.3907


Obs*R-squared 4.455852 Prob. Chi-Square(4) 0.3478
Scaled explained SS 6.778892 Prob. Chi-Square(4) 0.1480

Berdasarkan perhitungan dengan metode BPG diperoleh bahwa H0 diterima


yang artinya tidak terdapat masalah Heteroskedastisitas dalam model (Prob.
Chi-Square(4) = 0.34 lebih besar dari α = 0.05)

Dapat disimpulkan bahwa pembobot pada α taraf sebesar 0,05 dapat


mengatasi heteroskedastisitas .

18
6.3. Autokorelasi

Setelah kita ketahui konsekuensi masalah autokorelasi dimana estimator


dari metode OLS masih linier, tidak bias tetapi tidak mempunyai varian yang
minimum.
Penyembuhan masalah autokorelasi sangat tergantung dari sifat hubungan
antara residual. Atau dengan kata lain bagaimana bentuk struktur
autokorelasi.

Model regresi sederhana seperti dalam persamaan (6.21) sbb:

Yt   0  1 X t  et (6.21)

Diasumsikan bahwa residual mengikuti model AR(1) sebagai berikut:

et   et 1  vt 1    1 (6.22)

Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal:


(1) jika  atau koefisien model AR(1) diketahui;
(2) jika  tidak diketahui tetapi bisa dicari melalui estimasi.

a. Ketika Struktur Autokorelasi Diketahui


Pada kasus ketika koefisien model AR(1) yakni struktur
autokorelasi  diketahui, maka penyembuhan autokorelasi dapat
dilakukan dengan transformasi persamaan dikenal sebagai metode
Generalized difference equation. Pada bab 7 kita telah mengembangkan
metode GLS untuk mengatasi masalah heteroskedastisitas yakni ketika
varian residual tidak konstan. Dengan melakukan transformasi model kita
dapat menghilangkan masalah heteroskedastisitas sehingga kita
kemudian dapat mengestimasi model dengan menggunakan metode OLS.
Untuk menjelaskan metode Generalized difference equation dalam
kasus adanya autokorelasi, misalkan kita mempunyai model regresi
sederhana dan residualnya (et) mengikuti pola autoregresif tingkat
pertama AR(1) sbb:

Yt   0  1 X t  et (6.23)
et   et 1  vt 1    1 (6.24)

19
Dimana residual vt memenuhi asumsi residual metode OLS yakni E(vt)=0;
Var(vt) = 2; dan Cov (vt,vt-1) =0.
Kelambanan (lag) satu persamaan (6.23) sbb:

Yt 1   0  1 X t 1  et 1 (6.25)

Jika kedua sisi dalam persamaan (6.25) dikalikan dengan  maka akan
menghasilkan persamaan sbb:
Yt 1  0  1 X t 1   et 1 (6.26)

Kemudian persamaan (6.23) dikurangi persamaan (6.25) akan


menghasilkan persamaan diferensi tingkat pertama sbb:

Yt  Yt 1   0  0  1 X t  1 X t 1  et   et 1


Yt  Yt 1   0 (1   )  1 X t  1 X t 1  vt
  0 (1   )  1 ( X t  X t 1 )  vt (6.27)
dimana vt  et   et 1 dan memenuhi asumsi OLS seperti persamaan (6.24)

Persamaan (6.27) tersebut dapat kita tulis menjadi:

Yt    0   t X t  vt (6.28)
Dimana Yt  (Yt  Yt 1 );  0   0 (1   ); 1  1 ; X t  ( X t  X t 1 )

Residual vt dalam persamaan (6.28) sudah terbebas dari masalah


autokorelasi sehingga memenuhi asumsi OLS. Sekarang kita bisa
mengaplikasikan metode OLS terhadap transformasi variabel Y* dan X*
dan mendapatkan estimator yang menghasilkan karakteristik estimator
yang BLUE.

b. Ketika Struktur Autokorelasi Tidak Diketahui


Walaupun metode penyembuhan masalah autokorelasi sangat
mudah dilakukan dengan metode generalized difference equation jika
strukturnya diketahui, namun metode ini dalam prakteknya sangat sulit
dilakukan. Kesulitan ini muncul karena sulitnya kita untuk mengetahui
nilai . Oleh karena itu kita harus menemukan cara yang paling tepat
untuk mengestimasi . Ada beberapa metode yang telah dikembangkan
oleh para ahli ekonometrika untuk mengestimasi nilai .

20
1) Metode Diferensi Tingkat Pertama
Nilai  terletak antara -1   1. Jika nilai  = 0 berarti tidak ada
korelasi residual tingkat pertama (AR 1). Namun jika nilai  = 1 maka
model mengandung autokorelasi baik positif maupun negatif. Ketika
nilai dari  = +1, masalah autokorelasi dapat disembuhkan dengan
diferensi tingkat pertama metode generalized difference equation.
Misalkan kita mempunyai model sederhana seperti persamaan (6.29)
sebelumnya, metode diferensi tingkat pertama (first difference) dapat
dijelaskan sbb:

Yt   0  1 X t  et (6.29)

Diferensi tingkat pertama persamaan (6.23) tersebut sebagaimana


dalam persamaan (6.30) sebelumnya sbb:

Yt  Yt 1   0 (1   )  1 X t  1 X t 1  et   et 1 (6.30)

Jika  = +1 maka persamaan tersebut dapat ditulis kembali menjadi

Yt  Yt 1  1 ( X t  X t 1 )  (et  et 1 ) (6.31)
Atau dapat ditulis menjadi persamaan sbb:

Yt  1X t  vt (6.32)

dimana  adalah diferensi dan vt  et  et 1

Residual vt dari persamaan (6.32) tersebut sekarang terbebas dari


masalah autokorelasi. Metode first difference ini bisa diaplikasikan jika
koefisien autokorelasi cukup tinggi atau jika nilai statistik Durbin-
Watson (d) sangat rendah. Sebagai rule of thumb jika R2 > d, maka kita
bisa menggunakan metode first difference. Dari transformasi first
difference ini sekarang kita tidak lagi mempunyai intersep atau
konstanta dalam model. Konstanta dalam model dapat dicari dengan
memasukkan variabel trend (T) di dalam model aslinya. Misalkan
model awalnya dengan trend sbb:

Yt   0  1 X t   2T  et (6.33)

21
dimana T adalah trend, nilainya mulai satu pada awal periode dan
terus menaik sampai akhir periode. Residual et dalam persamaan
(6.24) tersebut mengikuti autoregresif tingkat pertama. Transformasi
persamaan (6.34) dengan metode first difference akan menghasilkan
persamaan sbb:

Yt  1X 1t   2  vt (6.34)

dimana residual vt  et  et 1
Pada proses diferensi tingkat pertama persamaan (6.32) menghasilkan
persamaan (6.33) yang mempunyai konstanta sedangkan diferensi
pertama pada persamaan (6.34) tanpa menghasilkan konstanta.

2) Estimasi  Didasarkan Pada Berenblutt- Webb


Metode transformasi dengan first difference bisa digunakan
hanya jika nilai  tinggi atau jika nilai d rendah. Dengan kata lain
metode ini hanya akan valid jika nilai  = +1 yaitu jika terjadi
autokorelasi positif yang sempurna. Pertanyaannya bagaimana kita
bisa mengetahui asumsi bahwa  = +1. Berenblutt-Webb telah
mengembangkan uji statistik untuk menguji hipotesis bahwa  = +1. Uji
statistik dari Berenblutt-Webb ini dikenal dengan uji statistik g
(Gujarati, 2005). Rumus statistiknya dapat ditulis sbb:
n

 t
2

g 2
n
(6.34)
e
1
t
t

Dimana et adalah residual dari regresi model asli dan vt merupakan


residual dari regresi model first difference. Dalam menguji signifikansi
statistik g diasumsikan model asli mempunyai konstanta. Kemudian
kita dapat menggunakan tabel Durbin-Watson dengan hipotesis nol  =
1, tidak lagi dengan hipotesis nol  = 0. Keputusan bahwa  = 1
ditentukan dengan membandingkan nilai hitung g dengan nilai kritis
statistik d. Jika g dibawah nilai batas minimal d L maka tidak menerima
hipotesis nol sehingga kita bisa mengatakan bahwa  = 1 atau ada
korelasi positif antara residual.

22
3) Estimasi  Didasarkan Pada Statistik d Durbin Watson
Kita hanya bisa mengaplikasikan metode transformasi first
difference jika nilai  tinggi yakni mendekati satu. Metode ini tidak bisa
digunakan ketika  rendah. Untuk kasus nilai  rendah maka kita bisa
menggunakan statistik d dari Durbin Watson. Kita bisa mengestimasi 
dengan cara sbb:

d  2(1  ˆ ) (6.35)

atau dapat dinyatakan dalam persamaan sbb:

d
ˆ  1  (6.36)
2
Sebagaimana pembahasan sebelumnya, kita bisa mencari nilai  dari
estimasi statistik pada persamaan (6.36) di atas. Asumsi first difference
menyatakan bahwa ˆ  1 hanya terjadi jika d=0 di dalam persamaan
(6.36). Begitu pula jika d = 2 maka ˆ  0 dan bila d =4 maka ˆ  1 .
Persamaan tersebut hanya suatu pendekatan tetapi kita bisa
menggunakan nilai statistik d untuk mendapatkan nilai . Di dalam
sampel besar kita dapat mengestimasi  dari persamaan (6.36) dan
menggunakan  yang kita dapatkan untuk model generalized difference
equation dalam persamaan (6.13) sebelumnya.

4) Estimasi  Dengan Metode Dua Langkah Durbin


Untuk menjelaskan metode ini maka kita kembali ke model
generalized difference equation persamaan (6.37). Kita tulis kembali
persamaan tersebut sbb:

Yt  Yt 1   0  0  1 X t  1 X t 1  et   et 1 (6.37)

Atau dapat kita tulis kembali menjadi

Yt   0 (1   )  1 X t 1  1 X t 1  Yt 1  vt (6.38)

Dimana vt  (et   et 1 )

Setelah mendapatkan persamaan (6.38), Durbin menyarankan untuk


menggunakan prosedur dua langkah untuk mengestimasi  yaitu:

23
1. Lakukan regresi dalam persamaan (6.38) dan kemudian
perlakukan nilai koefisien Yt-1 sebagai nilai estimasi dari .
Walaupun ini bias, tetapi merupakan estimasi  yang konsisten
2. setelah mencapai  pada langkah pertama, kemudian lakukan
transformasi variabel Yt  (Yt  Yt 1 ) dan X t  ( X t  X t 1 ) dan
kemudian lakukan regresi metode OLS pada transformasi
variabel persamaan (6.11.)

5) Estimasi  Dengan Metode Cochrane-Orcutt


Uji ini merupakan uji alternatif untuk memperoleh nilai  yang
tidak diketahui. Metode Cochrane-Orcutt sebagaimana metode yang
lain menggunakan nilai estimasi residual et untuk memperoleh
informasi tentang nilai  (Pindyck, S and Daniel. L, 1998). Untuk
menjelaskan metode ini kita misalkan mempunyai model regresi
sederhana sbb:

Yt   0  1 X t  et (6.39)

Diasumsikan bahwa residual (et) mengikuti pola autoregresif (AR1) sbb:

et   et 1  vt (6.40)

dimana residul vt memenuhi asumsi OLS

Metode yang kita bicarakan sebelumnya untuk mengetimasi  hanya


merupakan estimasi tunggal terhadap . Oleh karena itu, Cochrane-Orcutt
merekomendasi untuk mengestimasi  dengan regresi yang bersifat iterasi
sampai mendapatkan nilai  yang menjamin tidak terdapat masalah
autokorelasi dalam model. Adapun metode iterasi dari Cochrane-Orcutt dapat
dijelaskan sbb:

1. Estimasi persamaan (6.39) dan kita dapatkan nilai residualnya êt


2. Dengan residual yang kita dapatkan maka lakukan regresi persamaan
berikut ini:

eˆt  ˆ eˆt 1  vt (6.41)

3. Dengan ̂ yang kita dapatkan pada langkah kedua dari persamaan


(6.41) kemudian kita regresi persamaan berikut ini:
24
Yt  ˆYt 1   0  ˆ 0  1 X t  ˆ1 X t 1  et  ˆ et 1 (6.42)
Yt  ˆYt 1   0 (1  ˆ )  1 ( X t  ˆX t 1 )  vt

atau dapat ditulis dalam bentuk yang lebih sederhana menjadi


persamaan

Y    0  1 X t  et (6.43)


dimana:    0 (1  ˆ )

0

4. Karena kita tidak mengetahui apakah nilai ̂ yang diperoleh dari


persamaan (6.41) adalah nilai estimasi yang terbaik, maka masukan
nilai  0   0 (1  ˆ ) dan  1 yang diperoleh dalam persamaan (6.43) ke
dalam persamaan awal (6.39) dan kemudian dapatkan residualnya êt
sbb:
eˆt  Yt  ˆ0  ˆ1 X t (6.44)

5. Kemudian estimasi regresi sbb:

eˆt  ˆˆ eˆt  wt (6.45)


̂ˆ yang kita peroleh dari persamaan (6.45) ini merupakan langkah
kedua mengestimasi nilai 

Karena kita tidak juga mengetahui apakah langkah kedua ini mampu
mengetimasi nilai  yang terbaik maka kita dapat melanjutkan pada langkah
ketiga dan seterusnya. Pertanyaannya, sampai berapa langkah kita harus
berhenti melakukan proses iteratif untuk mendapatkan nilai . Menurut
Cochrane-Orcutt, estimasi nilai  akan kita hentikan jika nilainya sudah
terlalu kecil.

Contoh Kasus :

Data perkembangan Ekspor, Konsumsi, Impor dan Jumlah penduduk di


Negara GHI sebagai berikut :

25
Tabel 6.4.
Perkembangan Ekspor, Konsumsi, impor, dan populasi

Tahun Eks Cons Imp Pop


1990 468359 119802 95842 181436821
1991 556306 140805 112644 184614740
1992 632582 157484 125987 187762097
1993 671218 192959 154367 190873248
1994 737948 228119 182495 193939912
1995 794926 279876 223901 196957845
1996 855022 332094 265676 199926615
1997 921714 387171 309737 202853850
1998 1024791 647824 518259 205753493
1999 698856 813183 650547 208644079
2000 883948 856798 685439 211540428
2001 889649 1039655 831724 214448301
2002 878823 1231965 985572 217369087
2003 930554 1372078 1097662 220307809
2004 1056442 1532888 1226311 223268606
2005 1231826 1785596 1428477 226254703
2006 1347685 2092656 1674125 229263980
2007 1462818 2510504 2259453 232296830
2008 1602275 2999957 2699961 235360765
2009 1447012 3290996 2961896 238465165
2010 1667918 3858822 3472940 241613126
2011 1914268 4340605 3906545 244808254
2012 1945064 4858331 3886665 248037853
2013 2026120 5456626 2359212 251268276
2014 2046740 6035674 2580527 254454778

Lakukan regresi  LS Log(IMP) C Log(CONS) Log(EKS) Log(POP)

26
Hasilnya seperti di bawah ini :
Dependent Variable: LOG(IMP)
Method: Least Squares
Date: 01/09/17 Time: 07:01
Sample: 1990 2014
Included observations: 25

Variable Coefficient Std. Error t-Statistic Prob.

C 250.1596 97.31562 2.570601 0.0178


LOG(CONS) 1.933802 0.363362 5.321971 0.0000
LOG(EKS) 0.529593 0.377928 1.401305 0.1757
LOG(POP) -14.10181 5.536083 -2.547255 0.0188

R-squared 0.984114 Mean dependent var 13.57581


Adjusted R-squared 0.981844 S.D. dependent var 1.221827
S.E. of regression 0.164633 Akaike info criterion -0.624543
Sum squared resid 0.569188 Schwarz criterion -0.429523
Log likelihood 11.80679 Hannan-Quinn criter. -0.570453
F-statistic 433.6286 Durbin-Watson stat 0.910714
Prob(F-statistic) 0.000000

Lakukan Uji Autokorelasi dengan uji LM


Pilih : view  Residual Diagnostics  Serial Correlation LM Test 
masukan angka 2  OK
Hasilnya seperti output dibawah ini
Breusch-Godfrey Serial Correlation LM Test:

F-statistic 4.775548 Prob. F(2,19) 0.0209


Obs*R-squared 8.363160 Prob. Chi-Square(2) 0.0153

Dari hasil perhitungan Uji LM diperoleh nilai Prob. Chi-Square(2) = 0,0153


lebih kecil dari α = 0,05 berti H 0 ditolak, artinya dalam model diatas model
yang digunakan mengandung autokorelasi. Konsekuensi masalah
autokorelasi dimana estimator dari metode OLS masih linier, tidak bias tetapi
tidak mempunyai varian yang minimum.

27
Perbaikan Autokorelasi

Perbaikan Autokorelasi digunakan metode transformasi first difference jika


nilai  tinggi yakni mendekati satu. ˆ  1  d seperti dalam persaman (6.36),
2
sehingga ρ dapat di cari dengan formula dalam persamaan 6,36. Karena hasil
regresi dengan log(imp)=f(log(cons), log(eks), log(pop)) diperoleh dw
=0.910714, maka ρ diperoleh ρ = 1-(0,910714/2) = 0.5446.

Tabel 6.5.
Pembentukan Variabel Baru Ekspor, Konsumsi, impor,
dan populasi

Tahun log(Eks)* log(Cons)* log(Imp)* log(Pop)*


1991 2.656873 2.382668 2.33854 3.768209
1992 2.671972 2.393078 2.348949 3.771444
1993 2.667326 2.454826 2.410697 3.774582
1994 2.694465 2.479471 2.435342 3.777617
1995 2.704348 2.528681 2.484552 3.780553
1996 2.718406 2.554609 2.510481 3.783398
1997 2.733786 2.580786 2.536657 3.786172
1998 2.76206 2.768045 2.723916 3.788898
1999 2.570737 2.745019 2.700891 3.7916
2000 2.763322 2.713936 2.669807 3.794287
2001 2.710539 2.785588 2.74146 3.796955
2002 2.703701 2.813542 2.769413 3.799601
2003 2.731437 2.820177 2.776048 3.802233
2004 2.773012 2.84283 2.798701 3.804855
2005 2.809704 2.882888 2.83876 3.807467
2006 2.812413 2.915708 2.871579 3.810063
2007 2.826753 2.957237 2.964261 3.812645
2008 2.846909 2.99153 2.970694 3.815227
2009 2.781106 2.989612 2.968776 3.817819
2010 2.866917 3.036838 3.016002 3.820415
2011 2.893139 3.050284 3.029448 3.823018
2012 2.867485 3.071392 2.999403 3.825603
2013 2.881441 3.095176 2.7838 3.828122
2014 2.876182 3.111507 2.940825 3.830534

28
Dimana :

Log(ekst)* = Log(ekst)-0.5446*Log(ekst-1)
Log(const)* = Log(const)-0.5446*Log(const-1)
Log(impt)* = Log(impt)-0.5446*Log(impt-1)
Log(popt)* = Log(popt)-0.5446*Log(popt-1)

Lakukan regresi  LS Log(IMP)* C Log(CONS)* Log(EKS)* Log(POP)*

Hasilnya seperti di bawah ini :

Dependent Variable: LOG(IMP)*


Method: Least Squares
Date: 01/09/17 Time: 07:37
Sample (adjusted): 1991 2014
Included observations: 24 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 28.69959 16.89465 1.698738 0.1049


LOG(CONS)* 0.118989 0.301800 0.394264 0.6976
LOG(EKS)* 1.529882 0.351877 4.347779 0.0003
LOG(POP)* -8.041788 4.805893 -1.673318 0.1098

R-squared 0.937858 Mean dependent var 2.734542


Adjusted R-squared 0.928537 S.D. dependent var 0.222501
S.E. of regression 0.059480 Akaike info criterion -2.655333
Sum squared resid 0.070758 Schwarz criterion -2.458991
Log likelihood 35.86399 Hannan-Quinn criter. -2.603243
F-statistic 100.6150 Durbin-Watson stat 1.332800
Prob(F-statistic) 0.000000

29
Lakukan Uji Autokorelasi dengan uji LM
Pilih : view  Residual Diagnostics  Serial Correlation LM Test 
masukan angka 2  OK

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 1.596644 Prob. F(2,18) 0.2300


Obs*R-squared 3.616187 Prob. Chi-Square(2) 0.1640

Dari hasil perhitungan Uji LM diperoleh nilai Prob. Chi-Square(2) = 0,1640


lebih besar dari α = 0,05 berti H 0 diterima, artinya dalam model diatas model
yang digunakan tidak mengandung autokorelasi.

30
DAFTAR PUSTAKA

Agus Widarjono, Ekonometrika Teori dan Aplikasi untuk Ekonomi dan Bisnis, Edisi
Kedua, Cetakan Kesatu, Penerbit Ekonisia Fakultas Ekonomi UII
Yogyakarta 2007.
Budiyuwono, Nugroho, Pengantar Statistik Ekonomi & Perusahaan, Jilid 2, Edisi
Pertama, UPP AMP YKPN, Yogyakarta, 1996.
Catur Sugiyanto. 1994. Ekonometrika Terapan. BPFE, Yogyakarta
Gujarati, Damodar N. 2003. Basic Econometrics. Third Edition.Mc. Graw-Hill,
Singapore.

Sumodiningrat, Gunawan. 2001. Ekonometrika Pengantar. Yogyakarta: PFE-


Yogyakarta.

Supranto, J. 1984. Ekonometrika. Jakarta: Lembaga Penerbit Fakultas Ekonomi


Universitas Indonesia.

Thomas, R.L. 1998. Modern Econometrics : An Intoduction. Addison-Wesley.


Harlow, England.

31

Anda mungkin juga menyukai