Contoh Kasus :
“Analisis regresi linier berganda”
Salah satu analisis yang paling banyak digunakan dalam penelitian adalah
regresi linier berganda. yaitu suatu analisis regresi yang mengujikan adanya
pengaruh dua atau lebih varibel variabel bebas/ variabel indepen / (variabel x)
terhadap satu variabel dependen (Y).
Kenapa model regresi lionier lebih banyak dipakai? ada beberapa alasan, salah
satu satu model linier merupakan model yang model yang paling model dipahami
dibanding teori model nonlinier. selain itu model linier merupakan dasar dari
asumsi data normal. namun ternyata pembentukan model linier berganda tidak
sesederhana model regresi linier sederhana yang hanya melibatkan satu variabel x
kepada satu variabel y. salah satu kendala besar dalam membentuk model regresi
linier berganda adalah adanya 4 asumsi klasik yang harus dipenuhi. secara
sederhana, asumsi di sini dapat diartikan sebagai syarat bahwa model regresi yang
terbentuk merupakan model yang benar dan bisa dipakai secara tepat. bila ada satu
asumsi yang belum lolos alias terkena masalah maka model regresi yang dibuat
dapat dikatakn belum bisa mengestimasi pengaruh variabel independen terhadap
variabel terikat secara tepat.
Solusi apa yang bisa dilakukan untuk data yang tidak lolos asumsi klasik?
secara logika, semakin banyak variabel nbebas x maka semakin sulit model
regresi yang tersebut bebas asumsi klasik.
Pengujian asumsi normalitas untuk menguji data variabel bebas (X) dan variabel
terikat (Y) pada persamaan regresi yang dihasilkan, apakah berdistribusi normal
atau berdistribusi tidak normal. Jika distribusi data normal, maka analisis data dan
pengujian hipotesis digunakan statistik parametrik. Pengujian normalitas data
menggunakan uji kolmogorov-smirnov one sampel test dengan rumus:
Dimana:
Fo (X) = fungsi distribusi komulatif yang ditentukan.
SN (X) = distribusi frekuensi komulatif yang diobservasi dari suatu sampel
random dengan N observasi.
i = 1,2,…N
Adapun kriteria uji : jika probabilitas signifikan > 0,05 maka data berdistribusi
normal.
Persamaan regresi yang baik adalah tidak memiliki masalah autokorelasi. Jika
terjadi autokorelasi maka perasamaan tersebut menjadi tidak baik atau tidak layak
dipakai prediksi. Ukuaran dalam menentukan ada tidaknya masalah autokorelasi
dengan uji Durbin-Watson (DW), dengan ketentuan sebagai berikut:
(a). Terjadi autokorelasi positif jika DW di bawah -2 (DW < -2).
(b). Tidak terjadi autokorelasi jika DW berada di antara -2 dan +2 atau -2 < DW
+2.
Dari hasil output di atas, Durbin-Watson test = 2,397 dan DW > 2, maka,
disimpulkan bahwa data di atas terjadi autokorelasi negatif.
2. Nilai variance inflation factor (VIF) adalah faktor inflasi penyimpangan baku
kuadarat.
Nilai tolerance (a) dan variance inflation factor (VIF) dapat dicari dengan,
sebagai berikut:
☑ Besar nilai tolerance (a): a = 1 / VIF
☑ Besar nilai variance inflation factor (VIF): VIF = 1 / a
~ Variabel bebas mengalami multikolinieritas jika a hitung VIF.
~ Variabel bebas tidak mengalami multikolinieritas jika a hitung > a dan VIF
hitung < VIF.
Analisis Output:
B. Menggunakan besaran tolerance (a) dan variance inflation factor (VIF) jika
menggunakan alpha/tolerance = 10% atau 0,10 maka VIF = 10. Dari hasil output
VIF hitung dari kedua variabel = 1,021 < VIF = 10 dan semua tolerance variabel
bebas 0,980 = 98% diatas 10%, dapat disimpulkan bahwa antara variabel bebas
tidak terjadi multikolinieritas.
4. Uji Asumsi Klasik Heteroskedastisitas.
Dalam persamaan regresi berganda perlu diuji mengenai sama atau tidak
varians dari residual dari observasi yang satu dengan observasi lainnya. Jika
residual mempunyai varians yang sama, disebut homoskedastisitas. dan jika
varoansnya tidak sama disebut terjadi heteoskedastisitas. Persamaan regresi yang
baik jika tidak terjadi heteroskedastisitas.