Anda di halaman 1dari 16

KISI - KISI UAS EKONOMETRIKA

1. Membaca Hasil Regresi dengan Bunga berdasarkan Uji-T & Uji-F


Pada gambar di samping terlihat beberapa bunga
layu dan hanya satu bunga yang segar. Hal ini
dapat terjadi jika dalam pengujian data variabel
menggunakan Uji-T hanya terdapat satu
variabel yang signifikan. Variabel lainnya dalam
penelitian ini setelah dilakukan Uji-T didapatkan
hasil bahwa variabel tersebut tidak signifikan dan
digambarkan dengan bunga yang layu. Ketika
sudah dilakukan Uji-F ternyata hasilnya signifikan
secara simultan. Maksud dari signifikan secara simultan adalah seluruh
variabel independennya memengaruhi variabel dependen signifikan
secara bersamaan. Padahal ketika dilakukan uji masing-masing
variabel (Uji-T) hanya terdapat satu variabel yang signifikan. Maka
dapat diindikasikan bahwa model regresi yang ada tidak layak untuk
digunakan sebab jika Uji-F signifikan namun ketika Uji-T dilakukan hanya
terdapat sedikit variabel yang signifikan maka model tersebut
terjangkit multikolinearitas.

2. Cara dan Interpretasi Uji-T dan Uji-F


a. Uji-T
● Cari t hitung terlebih dahulu. Secara manual t hitung dapat
dicari dengan rumus t hitung = β/se dengan β adalah
koefisien variabel dalam regresi dan se adalah standar
errornya
● Terdapat model ekonometrika dengan standar errornya:
Y = 12.5 – 3.34X1 + 4.61X2
se (1.66) (1.29) (1.44)
● Cari t hitung
t hitung = β/se
t hitung = 3.34/1.29 = 2.589
Ditemukan t hitung sebesar 2.589
● Setelah didapatkan hasil dari t hitung, kemudian cari t tabel
untuk dibandingkan hasilnya
n = 18 k=2 α = 5%
k adalah jumlah variabel pada model dan n adalah jumlah
observasi
df = n-k = 18 -2 = 16
Dengan df 16 dan prob 0.05 (5%) cari pada tabel t sehingga
ditemukan t tabel sebesar 2.120

● Bandingkan t hitung dan t tabel. Jika t hitung > t tabel


maka artinya variabel tersebut signifikan dan jika t hitung <
t tabel artinya variabel yang diuji tidak signifikan.
t hitung : 2.589
t tabel : 2.120
Pada hasil terlihat bahwa t hitung > t tabel maka variabel X1
signifikan. Interpretasinya adalah maka variabel X1 akan
memengaruhi variabel Y secara signifikan.
b. Membaca F tabel dalam Uji-F
● Jika dalam pengolahan data regresi maka akan didapat
hasil F statistik (F hitung). F hitung tersebut nantinya akan
dikomparasikan dengan F tabel untuk menentukan
signifikan atau tidak
● Gambar di bawah ini menunjukkan bahwa F(7, 34)
merupakan F statistik atau F
hitung sebesar 29.78

● Cari F tabel dengan melihat F tabel. Sebelum itu perlu dicari


nominator dan denominator terlebih dahulu dengan
rumus F tabel = k / (n-k) dengan k adalah jumlah variabel
dan n adalah jumlah observasi. Asumsikan jika:
k=7 n = 42 α = 5%
F tabel = 7 / (42 – 5) = 7/32
nominator :7
denominator : 37
Cari pada F tabel dengan nominator 7 dan denominator 37
dengan taraf 0.05

Ditemukan hasil bahwa F tabel sebesar 2.25


● Bandingkan F statistik dengan F tabel, jika F stat > F tabel
maka signifikan secara simultan dan jika F stat < F tabel
maka tidak signifikan secara simultan. Pada hasil di atas:
F stat : 29.78
F tabel : 2.25
Terlihat bahwa F stat > F tabel, maka interpretasinya adalah
pada model tersebut variabel-variabel independennya (X1
dan X2) memengaruhi variabel dependen (Y) signifikan
secara simultan.

3. Asumsi Klasik: Multikolinearitas


Asumsi klasik menyatakan bahwa sudah seharusnya tidak ada
multikolinearitas antara variabel dalam model regresi penelitian. Pengertian
dari multikolinearitas itu sendiri adalah adanya hubungan sempurna antara
seluruh variabel independen pada model regresi penelitian. Sebagai contoh
pada model Y = β0 + β1x1 + β2x2 + e jika asumsikan x1 adalah kekayaan dan x2
adalah upah yang artinya dalam variabel kekayaan tersebut terdapat gaji di
dalamnya. Asumsikan x1 = 2x2 maka antara variabel x1 dan x2 memiliki
hubungan sempurna dan hal ini dapat dikatakan sebagai multikolinearitas.
a. Gejala Multikolinearitas
● Tingginya nilai R-square tapi hanya sedikit t statistik yang
signifikan. Nilai R-square berpengaruh pada nilai Uji-F
sehingga jika nilai R-Square tinggi maka nilai F hitung akan
tinggi dan akan semakin signifikan secara simultan. Di sisi
lain hanya ada sedikit variabel dengan nilai t statistik yang
signifikan, hal ini tentunya merupakan gejala
multikolinearitas seperti yang sudah dijelaskan pada poin
pertama.
● Adanya korelasi yang tinggi antara variabel independennya.
Dalam pengujian multikolinearitas menggunakan software
jika nilai korelasi antara variabel yang satu dengan variabel
lainnya melebihi 0.8 maka terdapat gejala multikolinearitas
yang tinggi.
● Tingginya standar error dibandingkan dengan koefisiennya
pada hasil regresi
● Adanya perubahan koefisien yang sangat besar ketika
ditambahkan variabel baru
● Koefisiennya memiliki tanda yang terbalik dengan teori
● Tingginya VIF (Variance Inflation Factor) dan rendahnya
(TOL) Tolerance
b. Auxiliary Regression
Multikolinearitas akan meningkat jika satu atau lebih regressor
(variabel independen) memiliki hubungan linear yang satu dengan
yang lainnya. Cara untuk mengetahui variabel independen mana
yang akan memengaruhi variabel independen lainnya adalah
dengan melakukan auxiliary regression.
Y = β0 + β1x1 + β2x2 + β3x3
Dalam model regresi di atas terdapat 3 variabel yakni x1, x2, dan x3.
Jika terdapat multikolinearitas kita ingin mengetahui variabel x apa
yang akan memengaruhi variabel x lainnya. Karena terdapat 3
variabel independen, maka akan dilakukan 3 auxiliary regression
menjadi:
X1 = α0 + α2x2 + α3x3 + ei
X2 = γ0 + γ1x1 + γ3x3 + ei
X3 = θ0 + θ1x1 + θ2x2 + ei

Terlihat bahwa variabel x1, x2, dan x3 yang sebelumnya menjadi


variabel indepen kini menjadi variabel dependen. Untuk
mengidentifikasi adanya multikolinearitas dapat dilakukan regresi
dari ketiga model di atas menggunakan software pengolahan data
dengan x1, x2, dan x3 sebagai variabel dependennya. Lakukan
selama tiga kali untuk tiap model. Maka didapatkan hasil R-Square
dari ketiga model di atas sebagai berikut:

X1 = α0 + α2x2 + α3x3 + ei (R2x1: 0.006)


X2 = γ0 + γ1x1 + γ3x3 + ei (R2x2: 0.0007)
X3 = θ0 + θ1x1 + θ2x2 + ei (R2x3: 0.0038)

Jika dari ketiga model auxiliary regression memiliki R2 yang rendah


seperti di atas, maka model regresi Y = β0 + β1x1 + β2x2 + β3x3
terbukti tidak memiliki gejala multikolinearitas. Apabila terdapat
salah satu R2 dengan nilai tinggi maka terdeteksi adanya gejala
multikolinearitas. Dengan menggunakan auxiliary regression maka
akan dengan mudah diketahui variabel independen mana yang
memengaruhi variabel independen lainnya.
Menurut Gujarati dapat digunakan rumus:

k adalah jumlah variabel independen, n adalah jumlah observasi,


dan R2x1.x2…. adalah salah satu nilai R2 yang ada pada ketiga model di
atas. Setelah itu:
1. Gunakan rumus di atas untuk menghitung F hitung
2. Cari F tabel dengan n, k, dan taraf (misal 5%) yang
sudah ditentukan pada setiap penelitian
3. Bandingkan F tabel dan F hitung, jika F hitung > F
tabel maka terdapat gejala kolinearitas dan apabila F
hitung < F tabel tidak terdapat gejala kolinearitas
c. Klein’s Rule Thumb
Hal ini berkaitan erat dengan auxiliary regression.

X1 = α0 + α2x2 + α3x3 + ei (R2x1: 0.006)


X2 = γ0 + γ1x1 + γ3x3 + ei (R2x2: 0.0007)
X3 = θ0 + θ1x1 + θ2x2 + ei (R2x3: 0.0038)

Apabila pada salah satu R2 dari tiap auxiliary regression di atas


lebih besar dari R2 pada model semula yaitu Y = β0 + β1x1 + β2x2 +
β3x3 maka model regresinya terindikasi multikolinearitas yang
sangat tinggi.
d. Eigenvalues and Condition Index
Stata dan EViews dapat digunakan untuk mencari eigenvalues
dan condition index. Dari eigenvalues dapat digunakan rumus:

Jika k antara 100 – 1000 maka terindikasi multikolinearitas yang


sangat tinggi apabila melebihi 1000 maka terdapat
multikolinearitas yang sangat parah. Alternatif lainnya jika nilai CI
(condition index) antara 10 – 30 maka terdapat multikolinearitas
sedang sampai tinggi jika melebihi 30 maka multikolinearitasnya
parah. Contoh:
k = max eigenvalue/min
eigenvalue
k = 2.6660/0.0363 = 73.44
nilai k lebih rendah dari 100
maka tidak terdapat
multikolinearitas.

e. VIF dan Tolerance


VIF dan Tolerance dapat dihitung menggunakan software seperti
Stata, EViews, dll. Namun rumus VIF secara manual adalah VIF =
1/(1-R2) dan TOL = 1/VIF. JIka nilai VIF kurang dari angka 10 maka
terdapat gejala multikolinearitas dan apabila nilai TOL lebih dari 0.1
maka terdapat gejala multikolinearitas.
Catatan: Multikolinearitas apabila VIF > 10 dan TOL <0.1
f. Kesalahan Tanda
Dalam merumuskan model regresi dapat terjadi kesalahan tanda
yang tidak sesuai dengan yang diharapkan atau teori. Misalnya
dalam meneliti hubungan gaji karyawan dengan jumlah konsumsi
agregat seharusnya ada hubungan positif artinya kenaikan gaji
karyawan akan meningkatkan konsumsi agregatnya. Namun setelah
dilakukan analisis ternyata didapatkan hasil dengan tanda yang tidak
sesuai dengan teori, yakni peningkatan gaji karyawan akan
menurunkan konsumsi agregat. Maka dari itu ada beberapa
penyebab terjadinya kesalahan tanda:
1. Kesalahan dalam teori ekonomi: kesalahan di sini adalah
adanya kesalahan dalam menggunakan skalanya. Misal
seharusnya dalam menganalisis yang digunakan adalah real
interest rate namun dalam penelitian yang digunakan adalah
nominalnya.
2. Omitted variable: ada variabel penting yang dihilangkan
3. Data yang diambil tidak dilakukan secara acak
dll.

4. Asumsi Klasik: Heteroskedastisitas


Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya
penyimpangan asumsi klasik heteroskedastisitas yaitu adanya
ketidaksamaan varian dari residual untuk semua pengamatan pada
model regresi. Heteroskedastisitas merupakan salah satu faktor yang
menyebabkan model regresi linier sederhana tidak efisien dan akurat,
juga mengakibatkan penggunaan metode kemungkinan maksimum
dalam mengestimasi parameter (koefisien) regresi akan terganggu.
Untuk mengetahui adanya heteroskedastisitas perlu dilakukan beberapa
pengujian yaitu Uji Park, Uji White, Uji Breusch-Pagan, Uji Goldfedt-Quan,
dll. Untuk pembahasan kali ini adalah:
a. Uji Park
Dalam pengujian ini error atau residuals (u) dijadikan dependen
variabel melalui regresi menggunakan software pengolahan data.

Ketika data residuals ditemukan dari hasil pengolahan data, maka


gunakan model di atas untuk diregresikan. Contoh hasil:

Untuk menguji apakah terdapat heteroskedastisitas atau tidak


gunakan pengujian Uji-T terhadap koefisien Xi
● T hitung = koefisien/se = 2.8099/4.216 = 0.667
● Asumsikan n = 17 dan k = 1. Maka df = 17-1 = 16
● Cari t tabel dengan df 16 dan prob 0.05
● Ditemukan bahwa t tabel = 2.120
● T hitung < t tabel artinya tidak signifikan. Dalam Uji Park,
jika tidak signifikan menandakan tidak ada gejala
heteroskedastisitas.
b. Uji White

n = 14
Untuk melakukan Uji White dari hasil regresi residual, perlu
dilakukan langkah berikut:
● Cari chi-square hitung dengan mengkalikan n dengan R2.
Maka n x R2 = 14 x 0.435 = 6.090
● Cari chi-square tabel dengan df = 2 (terdapat 2 variabel
independen)
● Dengan significance level adalah 0.05:

● Nilai chi-square tabelnya adalah 5.991


● Bandingkan chi-square hitung dengan chi-square tabel. Jika
chi2 hitung > chi2 tabel maka terdapat heterokedastisitas.
chi2 hitung : 6.090
chi2 tabel : 5.991
chi2 hitung > chi2 tabel, maka terindikasi gejala
heterokedastisitas
Cara menginterpretasikan Uji White melalui hasil pengujian
menggunakan software:

Nilai p value sebesar 0.3501. Untuk menguji heteroskedastisitas


adalah dengan membandingkan p value dengan significance
levelnya yaitu ambil contoh 0.05. Jika p-value < 0.05 maka
terdapat heteroskedastisitas dan jika p-value > 0.05 tidak
terdapat gejala heteroskedastisitas. Pada hasil pengujian di atas,
p-value sebesar 0.3501 yang mana lebih kecil dari 0.05 maka
penelitian di atas terindikasi adanya gejala heteroskedastisitas.
c. Uji Goldfeld-Quandnt
● Mengurutkan data penelitian dari yang terkecil ke yang
terbesar
● Hilangkan nilai tengah ‘c’ terlihat bahwa nilai tengah ada 4.

● Bagi grup untuk meregresi menjadi 2. Dengan cara n-c/2.


n-c = (30-4)/2 = 13. Maka lakukan regresi pada 13 data teratas
dan 13 data terbawah.

● Gunakan rumus di bawah ini untuk mencari F hitung. Df


ditemukan dari df = n - k = 13 - 2 = 11 (df1 dan df2 sama) K
disini adalah parameter sehingga terdapat 2 jika dilihat dari
model di atas.
● Cari F tabel dengan numerator 11 dan denumerator 11.

● F tabelnya sebesar 2.82 dan F hitung sebesar 4.07. Jika F


hitung > F tabel maka terdapat heteroskedastisitas dan
jika F hitung < F tabel maka tidak terdapat
heteroskedastisitas. Pada penelitian di atas terbukti bahwa
F hitung > F tabel sehingga terdapat indikasi
heteroskedastisitas.
d. Cara Mengatasi Heteroskedastisitas
● Menggunakan WLS (Weighted Least Squares)
● Mengubah data penelitian menjadi Log
● Mendefinisikan ulang dependen variabel. Misal awalnya
dependen variabelnya adalah populasi untuk menghitung
toko bunga di kota A menjadi populasi untuk menghitung
toko bunga per kapita

5. Asumsi Klasik: Autokorelasi


Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk
mengetahui adakah korelasi variabel yang ada di dalam model prediksi
dengan perubahan waktu. Oleh karena itu, apabila asumsi autokorelasi
terjadi pada sebuah model prediksi, maka nilai disturbance tidak lagi
berpasangan secara bebas, melainkan berpasangan secara autokorelasi.
Uji autokorelasi di dalam model regresi linear, harus dilakukan apabila
data merupakan data time series atau runtun waktu. Sebab yang
dimaksud dengan autokorelasi sebenarnya adalah sebuah nilai pada
sampel atau observasi tertentu sangat dipengaruhi oleh nilai observasi
sebelumnya.
a. Uji Durbin-Watson
Pada uji autokorelasi menggunakan Uji Durbin-Watson, yang
pertama dilihat adalah jumlah parameter dan observasinya.
Jumlah parameter pada penelitian ini adalah 8 dan jumlah
observasinya 42. Lalu gunakan tabel Durbin-Watson untuk
mengukur nilai dl dan du.

Setelah menggunakan tabel dapat dilihat bahwa nilai:


dl (Durbin Watson’s lower limit) : 1.139
du (Durbin Watson’s upper limit) : 1.958
Lalu buat susunan rangkaian seperti di bawah ini:
Setelah membuat susunan rangkaian seperti di atas, lihat kembali
hasil dari pengujian Durbin-Watson di atas.

Terlihat bahwa nilai Uji Durbin-Watson sebesar 0.8886 setelah itu


identifikasi nilai Uji Durbin-Watson berada di posisi mana. Ternyata
nilai Uji Durbin-Watson berada pada rentang 0 – 1.139 yaitu pada
posisi positive serial. Maka hal ini terjadi autokorelasi secara positif.
b. Uji Breusch-Godfrey
Pada pengujian autokorelasi ini jika dilihat dari hasilnya merujuk
pada nilai prob chi2, apabila nilai prob chi2 lebih kecil dari 0.05
maka terdapat autokorelasi antara residualnya. Apabila nilai prob
chi2 lebih besar dari 0.05 maka tidak terdapat autokorelasi antara
residualnya.

Pada hasil pengujian autokorelasi penelitian ini dapat dilihat


bahwa nilai prob chi2 adalah sebesar 0.0002 yang artinya adalah
lebih kecil dari 0.05 maka dapat diinterpretasikan bahwa terdapat
autokorelasi antara residual pada penelitian ini.
c. Runs Test
Untuk menguji runs test dengan software dapat digunakan melalui
SPSS. Pertama adalah meregresi data lalu meregresi residualnya
juga sehingga terdapat hasil residual. Lalu setelah didapat nilai
residuals maka dapat dilakukan uji runs test pada software
dengan hasil di bawah ini:
Jika nilai Asymp. Sig < 0.05 maka terindikasi autokorelasi. Jika
Asymp. Sig > 0.05 tidak terindikasi autokorelasi.
d. DIagram Plot
Untuk poin (a) menunjukkan gambar autokorelasi positif dan poin
(b) adalah autokorelasi negatif.

7. BLUE

Anda mungkin juga menyukai