Anda di halaman 1dari 5

EKONOMETRIKA

Contoh Kasus :
“Analisis regresi linier berganda”

Salah satu analisis yang paling banyak digunakan dalam penelitian adalah
regresi linier berganda. yaitu suatu analisis regresi yang mengujikan adanya
pengaruh dua atau lebih varibel variabel bebas/ variabel indepen / (variabel x)
terhadap satu variabel dependen (Y).

Kenapa model regresi lionier lebih banyak dipakai? ada beberapa alasan, salah
satu satu model linier merupakan model yang model yang paling model dipahami
dibanding teori model nonlinier. selain itu model linier merupakan dasar dari
asumsi data normal. namun ternyata pembentukan model linier berganda tidak
sesederhana model regresi linier sederhana yang hanya melibatkan satu variabel x
kepada satu variabel y. salah satu kendala besar dalam membentuk model regresi
linier berganda adalah adanya 4 asumsi klasik yang harus dipenuhi. secara
sederhana, asumsi di sini dapat diartikan sebagai syarat bahwa model regresi yang
terbentuk merupakan model yang benar dan bisa dipakai secara tepat. bila ada satu
asumsi yang belum lolos alias terkena masalah maka model regresi yang dibuat
dapat dikatakn belum bisa mengestimasi pengaruh variabel independen terhadap
variabel terikat secara tepat.

Asumsi pertama yang pertama adalah, normalitas residual. kesalahan yang


biasa terjadi adalah banyak peneliti mengira normalitas yang dimaksud adalah
normalitas data, padahal dalam regresi linier normalitas yang dimaksud adalah
normalitas residual. setelah menyadari kesalahannya akhirnya peneliti semakin
bingung karena untuk menampilkan nilai residual regresi yang dibuat masih
bingung...apalagi sampai menguji normalitas. dan paling parahnya setelah bisa
menguji normalitas residual , ternyata hasilnya tidak normal. apa yang harus
dilakukan agar bisa lolos normalitas?
Asumsi regresi kedua, multikolinieritas, multikolinieritas sederhananya adalah
menghindari hubungan linier antara variabel independen. sehingga bila ada
hubungan linier antara variabel x1 terhadap x2 maka dapat dipastikan model
regresi bergandanya akan bias dan tidak bisa digunakan. pengujian kasus
multikolinieritas dapat digunakan nilai VIF. walaupun sederhana, namun masalah
ini akan membingungkan ketika terjadi kasus multikolinieritas . secara teoritis,
bila terjadi kasus multikolinieritas maka direkomendasikan agar variabel yang
multikolinieritas harus dibuang dari model. masalahnya bagaimana bila varaibel
yang harus dibuang tersebut adalah variabel yang sangat penting yang tidak
mungkin dibuang dari model?

Asumsi regresi berganda ketiga adalah autokorelasi, yaitu adanya kondisi


dimana terdapat korelasi atau hubungan antar pengamatan (observasi),yaitu
berbentuk observasi deret waktu. Untuk data-data tertentu asumsi autokorelasi
bisa disingkirkan dari kewajiban uji. namun yang paling berat adalah bila ternyata
terdapat kasus autokorelasi namun terlalu kuat. apa solusinya?

Terakhir adalah asumsi heterokedastisitas, yaitu adanya ketidaksamaan varian


dari residual untuk semua pengamatan pada model regresi.. menurut saya teknik
uji heterokedastisitas yang paling sederhana adalah uji Glejser. bila hasil uji
Glejser menunjuka bahwa varian resiudal tidak seragam maka solusi yang bisa
dilakukan adalah transformasi seperti transformasi log / ln. namun tidak semua
data bisa dilakukan tranformasi seperti data dengan nilai negatif.

Solusi apa yang bisa dilakukan untuk data yang tidak lolos asumsi klasik?
secara logika, semakin banyak variabel nbebas x maka semakin sulit model
regresi yang tersebut bebas asumsi klasik.

UJI ASUMSI KLASIK ( Normalitas, Autokorelasi, Multikolinearitas dan


Heteroskedastisitas) Pengujian Asumsi Klasik Model Regresi Berganda

1. Uji Asumsi Kalsik Normalitas.

Pengujian asumsi normalitas untuk menguji data variabel bebas (X) dan variabel
terikat (Y) pada persamaan regresi yang dihasilkan, apakah berdistribusi normal
atau berdistribusi tidak normal. Jika distribusi data normal, maka analisis data dan
pengujian hipotesis digunakan statistik parametrik. Pengujian normalitas data
menggunakan uji kolmogorov-smirnov one sampel test dengan rumus:
Dimana:
Fo (X) = fungsi distribusi komulatif yang ditentukan.
SN (X) = distribusi frekuensi komulatif yang diobservasi dari suatu sampel
random dengan N observasi.
i = 1,2,…N
Adapun kriteria uji : jika probabilitas signifikan > 0,05 maka data berdistribusi
normal.

2. Uji Asumsi Klasik Autokorelasi

Persamaan regresi yang baik adalah tidak memiliki masalah autokorelasi. Jika
terjadi autokorelasi maka perasamaan tersebut menjadi tidak baik atau tidak layak
dipakai prediksi. Ukuaran dalam menentukan ada tidaknya masalah autokorelasi
dengan uji Durbin-Watson (DW), dengan ketentuan sebagai berikut:
(a). Terjadi autokorelasi positif jika DW di bawah -2 (DW < -2).
(b). Tidak terjadi autokorelasi jika DW berada di antara -2 dan +2 atau -2 < DW
+2.

Contoh bagian output:

Dari hasil output di atas, Durbin-Watson test = 2,397 dan DW > 2, maka,
disimpulkan bahwa data di atas terjadi autokorelasi negatif.

3. Uji Asumsi Klasik Multikolinieritas.

Uji asumsi klasik ini digunakan untuk mengukur tingkat


asosiasi (keeratan)hubungan/pengaruh antar variabel bebas tersebut melalui
besaran koefisien korelasi (r). Multikolinieritas terjadi jika koefisien korelasi antar
variabel bebas lebih besar dari 0,60 (pendapat lain: 0,50 dan 0,90). Dikatakan
tidak terjadi multikolinieritas jika koefisien korelasi antar variabel bebas lebih
kecil atau sama dengan 0,60 (r < 0,60). Dengan cara lain untuk menentukan
multikolinieritas, yaitu dengan :
1. Nilai tolerance adalah besarnya tingkat kesalahan yang dibenarkan secara
statistik (a).

2. Nilai variance inflation factor (VIF) adalah faktor inflasi penyimpangan baku
kuadarat.
Nilai tolerance (a) dan variance inflation factor (VIF) dapat dicari dengan,
sebagai berikut:
☑ Besar nilai tolerance (a): a = 1 / VIF
☑ Besar nilai variance inflation factor (VIF): VIF = 1 / a
~ Variabel bebas mengalami multikolinieritas jika a hitung VIF.
~ Variabel bebas tidak mengalami multikolinieritas jika a hitung > a dan VIF
hitung < VIF.

Contoh bagian output:

Analisis Output:

A. Melihat besaran koefisien korelasi antar variabel bebas, terlihat koefisien


korelasi antar variabel bebas sebesar 0,142 jauh di bawah 0,60. Disimpulkan
bahwa antara variabel bebas tidak terjadi multikolinieritas.

B. Menggunakan besaran tolerance (a) dan variance inflation factor (VIF) jika
menggunakan alpha/tolerance = 10% atau 0,10 maka VIF = 10. Dari hasil output
VIF hitung dari kedua variabel = 1,021 < VIF = 10 dan semua tolerance variabel
bebas 0,980 = 98% diatas 10%, dapat disimpulkan bahwa antara variabel bebas
tidak terjadi multikolinieritas.
4. Uji Asumsi Klasik Heteroskedastisitas.

Dalam persamaan regresi berganda perlu diuji mengenai sama atau tidak
varians dari residual dari observasi yang satu dengan observasi lainnya. Jika
residual mempunyai varians yang sama, disebut homoskedastisitas. dan jika
varoansnya tidak sama disebut terjadi heteoskedastisitas. Persamaan regresi yang
baik jika tidak terjadi heteroskedastisitas.

Analisis uji asumsi heteroskedastisitas hasil output SPSS melalui grafik


scatterplot antara Z prediction (ZPRED) untuk variabel bebas (sumbu X=Y hasil
prediksi) dan nilai residualnya (SRESID) merupakan variabel terikat (sumbu Y=Y
prediksi – Y rill).

Homoskedastisitas terjadi jika titik-titik hasil pengolahan data antara ZPRED


dan SRESID menyebar di bawah ataupun di atas titik origin (angka 0) pada
sumbu Y dan tidak mempunyai pola yang tertentu.
Heteroskedastisitas terjadi jika pada scatterplot titik-titiknya mempunyai pola
yang teratur, baik menyempit, melebar maupun bergelombang-gelombang.