Anda di halaman 1dari 13

TUGAS 3 EKONOMETRIKA KELAS B

MENANGANI KASUS HETEROSKEDASTISITAS PADA DATA APBN


INDONESIA TAHUN 1976-2007

Dosen Pengampu :

Dr. Muhammad Sjahid Akbar


NIP. 19720705 199802 1 001

Disusun oleh :

Vania Frederica 06211940000006

DEPARTEMEN STATISTIKA
FAKULTAS SAINS DAN ANALITIKA DATA
INSTITUT TEKNOLOGI SEPULUH NOPEMBER
SURABAYA
2022
Data yang digunakan untuk tugas ini adalah data time series berupa data sekunder yang berasal
dari laporan Anggaran belanja Negara (APBN) dari tahun 1976 sampai dengan tahun 2007. Data
ini didapat dari skripsi berjudul “Analisis Regresi Linier Berganda dengan Heteroskedastisitas
Melalui Pendekatan Weight Least Square” oleh Lina Suli Farida. Data tersebut terdiri dari enam
variabel bebas dan satu variabel terikat yang kemudian akan dikombinasikan sehingga
membentuk beberapa model persamaan regresi untuk diketahui model yang tepat dan dilihat
pengaruh apa yang akan dihasilkan dari beberapa model tersebut.

Variabel-variabel tersebut adalah sebagai berikut:


1. Y = Currency Outside Bank (COB) COB adalah jumlah uang yang beredar dimasyarakat
yang dipengaruhi oleh faktor-faktor ekonomi makro.
2. X1 = Gross Domestic Product (GDP) GDP adalah indikator ekonomi, Gross Domestic
atau ukuran yang paling luas atas kegiatan ekonomi secara menyeluruh (aggregate) dan
mendorong setiap sector ekonomi
3. X2 = Export Tax (EXTAX) Export Tax adalah pajak yang dikenakan untuk setiap
barang-barang yang akan diekspor ke luar negri.
4. X3 = Pajak Pertambahan Nilai dan Pajak Tidak Langsung (PTLL) PTLL adalah pajak
yang dikenakan kepada wajib pajak pada saat tertentu atau terjadi suatu peristiwa kepada
wajib pajak.
5. X4 = Consument Price Index Gross (CPIG) CPIG adalah Indeks yang mengukur rata-rata
dari barang tertentu yang dibeli oleh konsumen.
6. X5 = Pajak Tidak langsung (PTL) PTL adalah pajak yang tidak secara langsung dipungut
pemerintah dari pembayar-pembayar pajak.
7. X6 = Pajak Pertambahan Nilai (PPN) PPN adalah Pajak yang dikenakan atas penyerahan
barang, import barang, penyerahan jasa, pemanfaatan barang dan jasa, dan eksport barang
yang dikenakan biaya pajak.
Langkah pertama yang dilakukan adalah melihat statistika deskriptif dari data.

Gambar 1. Statistika Deskriptif


Berdasarkan gambar 1, nilai rata – rata (mean) tertinggi terdapat pada data x1(Gross Domestic
Product) yaitu sebesar 798975356 rupiah. Nilai mean merupakan nilai rata-rata dari data setiap
sektor yang mempengaruhi APBN. Nilai std. deviation tertinggi terdapat pada data x1 sebesar
1068211853 rupiah. Nilai std deviation menggambarkan besaran sebaran suatukelompok data
terhadap rata – ratanya atau dengan kata lain gambaran keheterogenan suatu kelompok data. Nilai
variance tertinggi terdapat pada data x1 yaitu sebesar 1,14108E+18 rupiah. Nilai variance
merupakan ukuran keberagaman data, semakin besar angka varians maka semakin beragamlah
data tersebut.

Langkah kedua yang dilakukan adalah membuat model awal pada regresi linear berganda dengan
variabel variabel yang mempengaruhinya.

Gambar 2. Persamaan Model Regresi

Setelah persamaan regresi didapatkan, maka terlebih dahulu diatasi jika ada kasus
multikolinearitas pada data. Terlihat bahwa nilai VIF pada variabel X1, X3, X5 dan X6 memiliki
nilai VIF >10 yang menunjukkan adanya multikolinearitas pada data. Selain itu, jika melihat
korelasi antar variabel independen, terlihat adanya korelasi yang cukup besar antara X1, X3, X5
dan X6 sehingga memungkinkan adanya kasus multikolinearitas.

Gambar 3. Korelasi
Untuk mengatasi kasus multikolinearitas, dapat dilakukan berbagai cara seperti regresi komponen
utama, regresi ridge, dan eliminasi backward yaitu dengan mengeliminasi variabel bebas yang
memiliki korelasi paling tinggi. Dipilih menggunakan regresi komponen utama.

Pertama, membentuk matriks Z yang terdiri atas matriks Z1-Z6, dari matriks yang telah di
centering dan discalling, yaitu dengan menggunakan rumus
x −x
Z i = ij i
si
n
si =  (x
j =1
ij − xi ) 2

Didapatkan hasil sebagai berikut :

Gambar 4. Matriks Z

Langkah selanjutnya adalah membentuk matriks Z T Z sebagai berikut :


2,583333 1,461204 2,557809 -0,06012 2,576176 2,575129
1,461204 2,583333 1,231209 1,400868 1,398585 1,431794
2,557809 1,231209 2,583333 -0,29557 2,564397 2,559669
-0,06012 1,400868 -0,29557 2,583333 -0,16583 -0,15858
2,576176 1,398585 2,564397 -0,16583 2,583333 2,582272
2,575129 1,431794 2,559669 -0,15858 2,582272 2,583333
Gambar 5. Matriks Z T Z
Dengan menggunakan matriks Z T Z diatas, maka perlu dicari eigen value dan eigen
vektornya.

Gambar 6. Eigen Value dan Eigen Vektor

Nilai eigen yang lebih dari 1 hanya ada pada nilai eigen ke-1 dan ke-2. Dengan demikian prediktor
yang dibentuk adalah 2. Selanjutnya membentuk matriks W yang merupakan kombinasi linear dari
principal component.
• Hubungan antara w1 dengan z1-z6
w1 = 0, 478z1 + 0,308z2 + 0, 470 z3 + 0,013z4 + 0, 477 z5 + 0, 477 z6
• Hubungan antara w2 dengan z1-z6
w2 = −0,060 z1 + 0,561z2 − 0,147 z3 + 0,802 z4 − 0,093z5 − 0,086 z6
Elemen pada matriks W didapatkan dengan mensubstitusi nilai z1-z6 ke setiap persamaan diatas

Gambar 7. Matriks W

Selanjutnya, mencari persamaan regresi menggunakan variabel respon dan matriks w.


Gambar 8. Output estimasi parameter regresi komponen utama
Jika melihat uji signifikansi secara parsial, hanya variabel w1 yang signifikan (dilihat dari pvalue
< alpha). Setelah didapatkan model regresi komponen utama, maka transformasi balik variabel
menjadi variabel x.

y = 0,1991 − 0,1041w1 + 0, 0164w2

y = 0,1991 − 0,1041(0, 478 z1 + 0,308 z2 + 0, 470 z3 + 0, 013 z4 + 0, 477 z5 + 0, 477 z6 )


+0, 0164(−0, 060 z1 + 0,561z2 − 0,147 z3 + 0,802 z4 − 0, 093 z5 − 0, 086 z6 )

y = 0,1991 − 0, 0498 z1 − 0, 0321z2 − 0, 0489 z3 − 0, 00135 z4 − 0, 0497 z5 − 0, 0497 z6


−0, 000984 z1 + 0, 0092 z2 − 0, 00241z3 + 0, 0132 z4 − 0, 00152 z5 − 0, 00141z6

y = 0,1991 − 0, 051z1 − 0, 0231z2 − 0, 0513z3 + 0, 00119 z4 − 0, 051z5 − 0, 0511z6

x1 − x1 x −x x −x
y = 0,1991 − 0, 051( ) − 0, 0231( 2 2 ) − 0, 0513( 3 3 )
s1 s2 s3
x4 − x4 x −x x −x
+0, 00119( ) − 0, 051( 5 5 ) − 0, 0511( 7 7 )
s4 s5 s7

x1 − 798975356 x − 482583 x − 614945


y = 0,1991 − 0, 051( ) − 0, 0231( 2 ) − 0, 0513( 3 )
1068211853 960091 759106
x − 11, 47 x − 37538155 x − 28275713
+0, 00119( 4 ) − 0, 051( 5 ) − 0, 0511( 7 )
9, 48 53683380 40329561

Setelah asumsi multikolinearitas berhasil diatasi, maka selanjutnya medeteksi uji asumsi
heteroskedastisitas. Heteroskedastisitas adalah keadaan dimana semua residual atau error
mempunyai varians yang tidak konstan atau berubah-ubah Dalam praktiknya, Heteroskedastisitas
banyak ditemui pada data crosssection karena pengamatan dilakukan pada individu berbeda pada
saat yang sama. Akan tetapi bukan berarti Heteroskedastisitas tidak ada dalam data timeseries.
Ada beberapa alasan yang menyebabkan varians kesalahan pengganggu menjadi variabel yang
selalu berubah, antara lain sebagai berikut:
1. Basis data dari satu atau lebih variabel mengandung nilai-nilai dengan satuan jarak yang
lebar, yaitu jarak antara nilai yang paling kecil dengan yang paling besar adalah lebar.
2. Perbedaan laju pertumbuhan antara variabel-variabel dependen dan independen adalah
signifikan dalam periode pengamatan untuk data time series.
3. Terdapat situasi error learning, misalnya kita ingin mengetahui hubungan tingkat kesalahan
mengetik terhadap berbagai variabel. Jika kita menggunakan sampel yang bersifat
panel/time series akan sangat mungkin model yang dimiliki akan bersifat heteroskedastis.
Hal ini disebabkan kesalahan pengetikan akan menurun dari waktu ke waktu dan terjadi
konvergensi diantara elemen sampel (kesalahan anggota sample yang paling tidak terampil
akan menurun mendekati mereka yang awalnya sudah terampil).
4. Peningkatan diskresi.
5. Perbaikan tehnik pengambilan data. Dampaknya varians tiap individu akan menurun.

Adanya Heteroskedastisitas bukan berarti suatu model regresi adalah lemah. Jika regresi dengan
Ordinary Least Square tetap dilakukan dengan adanya heteroskedastisitas maka akan diperoleh
koefisien-koefisien hasil estimasi parameter regresi sampai dalam persamaan tetap tidak bias, akan
tetapi nilai-nilai koefisien tersebut berfluktuasi lebih tajam daripada nilai-nilai normalnya. Dengan
kata lain, jika model itu diperbaharui ulang dengan menambah data atau dengan sampel-sampel
yang digunakan berbeda, maka koefisien-koefisien hasil estimasi akan bervariasi secara signifikan
diseputar nilai rata-ratanya. Karena ayunan yang lebar pada koefisien-koefisien hasil estimasi,
maka kesalahan dari suatu taksiran tunggal pada masing-masing model yang diperbaharui akan
juga berubah-ubah secara lebar sehingga taksiran akan menjadi kurang efisien daripada
seharusnya.

Langkah pertama adalah mendeteksi heteroskedastisitas dengan berbagai cara


1. Metode grafik. Dengan melihat ada tidaknya pola tertentu pada grafik, dimana sumbu X
adalah Y yang telah diprediksi, dan sumbu Y adalah residual (Y sesungguhnya – Y
prediksi). Jika Ada pola tertentu, seperti titik-titik yang membentuk suatu pola tertentu
yang teratur (bergelombang, melebar, kemudian menyempit), maka telah terjadi
heteroskedatisitas.
Gambar 9. Scatterplot variabel yfit dengan residual

Pada gambat terbentuk pola linear menurun dan menaik. Yang menunjukkan bahwa adanya
kasus heteroskedastisitas. Kemungkinan adanya hubungan kuadratik antara yfit dengan
residual.

2. Menggunakan uji formal seperti antara lain uji Park, uji Glejser, Uji Korelasi Rank dari
Spearman, uji Goldfeld-Quandt, uji White. Dipilih menggunakan uji glejser, uji park, dan
uji korelasi rank dari spearman,
Uji Glesjer dilakukan dengan meregresikan residual terhadap variabel independen untuk
mendapatkan prediktor.
H0 :  j = 0
H1 :  j  0
j
thit =
se(  j )
Tolak H0 jika |Thit|  t ( n − p −1)
atau pvalue<
2
Gambar 10. Hasil Uji Glejser

Dari pengujian glejser diatas, diketahui bahwa seluruh variabel memiliki nilai pvalue > 0,05,
hal ini menunjukkan bahwa tidak terjadi gejala/ terbebas dari uji heteroskedastisitas. Namun,
bisa jadi hal ini kurang tepat mengingat uji glejser sesuai jika memiliki data yang cukup
banyak. Untuk itu dilakukan pengujian park.

Uji Park yang pada prinsipnya meregresikan nilai logaritma natural dari residual kuadrat.
Berikut ini adalah transformasi data pada residual dan variabel independen

Gambar 11. Transformasi data


Setelah itu, dilakukan regresi antara variabel independen dan ln residual sebagai variabel
dependen. Dengan demikian, didapatkan hasil sebagai berikut :

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 11.001 32.531 .338 .738
lnX1 -2.947 8.004 -1.895 -.368 .716
lnX2 .153 .468 .082 .328 .746
lnX3 -4.527 1.650 -2.800 -2.744 .011
lnX4 1.040 1.105 .210 .941 .355
lnX5 6.885 15.139 5.456 .455 .653
lnX6 -1.144 8.079 -1.012 -.142 .889
a. Dependent Variable: lnres
Gambar 12. Hasil Uji Park
Dari pengujian tersebut, diketahui bahwa pvalue dari variabel x3 adalah 0,011 < alpha yang
menunjukkan adanya kasus heteroskedastisitas.

Selanjutnya dilakukan pengujian korelasi rank spearman. Setelah didapatkan residual dari model
regresi linear yang telah diatasi kasus multikolinearitasnya. Maka dilakukan korelasi bivariate
spearman dengan memasukkan seluruh variabel independen dan residual. Berikut ini adalah hasil
output spss
Gambar 13. Hasil Uji Korelasi Rank Spearman

Dari output diatas, diketahui bahwa nilai pvalue dari variabel X1,X3,X5, dan x6 < 0,05 yang
artinya terdapat masalah atau gejala heteroskedastisitas

Untuk itu, perlu ditangani terlebih dahulu yaitu dengan cara menggunakan weigthed least square
dengan menggunakan pembobot ataupun menggunakan transformasi. Peneliti telah mencoba
1 1
melakukan weigthed least square dengan menggunakan pembobot , namun belum dapat
xi xi

mengatasi heteroskedastistitas. Untuk itu dilakukan transformasi 1/ln().

Gambar 14. Transformasi 1/ln()


Kemudian dilakukan analisis regresi didapatkan hasil berikut :

Gambar 15. Output regresi

Setelah itu, dilakukan pengujian glesjer kembali untuk membuktikan ada tidaknya kasus
heteroskedastisitas.

Gambar 15. Output Uji Glesjer


Diketahui bahwa seluruh variabel memiliki pvalue > 0,05 artinya kasus heteroskedastisitas
sudah berhasil ditangani. Model yang terbentuk adalah

1 1 1 1 1 1 1
=  0 + 1 + 2 + 3 + 4 + 5 + 6
ln( yi ) ln( x1 ) ln( x2 ) ln( x3 ) ln( x4 ) ln( x5 ) ln( x6 )

1 1 1 1 1 1 1
= 0, 08 + 78, 680 + 4,167 − 19, 294 − 0,339 − 69, 265 + 14, 780
ln( yi ) ln( x1 ) ln( x2 ) ln( x3 ) ln( x4 ) ln( x5 ) ln( x6 )

Anda mungkin juga menyukai