Analisis regresi linier berganda ini digunakan untuk mengetahui ada tidaknya
pengaruh dari variabel bebas terhadap variabel terikat. Disini saya akan
memberikan contoh seperti artikel saya sebelumnya, lihat artikelnya disini.
Sehingga yang saya cari adalah pengaruh variabel bebas (independen variable)
yaitu Leverage (X1), CR (X2), Return On Asset (X3) dan Return On Equity (X4)
terhadap variabel terikat (dependen variable) yaitu Beta (Y).
Dimana:
Y = Beta (β)
a = Konstanta
b1,b2,b3,b4 = Koefisien determinasi
X1 = Leverage
X2 = CR
X3 = Return On Asset (ROA)
X4 = Return On Equity (ROE)
e = Error
Untuk membaca dari hasil SPSS terhadap persamaan regresinya adalah dengan
melihat output spss pada tabel “Coefficients” (yang belum tau caranya bisa dilihat
langkahnya dengan klik disini).
Untuk lebih jelasnya bisa lihat pada contoh saya yang sebelumnya dan gambar di
bawah ini:
Berdasarkan tabel diatas dapat diperoleh rumus regresi sebagai berikut:
1. Konstanta (a)
Ini berarti jika semua variabel bebas memiliki nilai nol (0) maka nilai variabel
terikat (Beta) sebesar -0,094.
2. Uji t
Analisis uji t juga dilihat dari tabel ”Coefficient”. Contoh dari artikel saya
sebelumnya:
Cara bacanya:
Untuk analisisnya dari output SPSS dapat dilihat dari tabel ”Anova”, seperti contoh
saya:
Cara bacanya:
Nilai koefisien ini antara 0 dan 1, jika hasil lebih mendekati angka 0 berarti
kemampuan variabel-variabel independen dalam menjelaskan variasi variabel amat
terbatas. Tapi jika hasil mendekati angka 1 berarti variabel-variabel independen
memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi
variabel dependen.
Untuk analisisnya dengan menggunakan output SPSS dapat dilihat pada tabel
”Model Summary”.
Supaya lebih sederhana lihat contoh saya berikut ini:
Berdasarkan Tabel ”Model Summary” dapat disimpulkan bahwa Leverage, CR, ROA
dan ROE berpengaruh sebesar 35,4% terhadap Risiko Sistematis, sedangkan 64,6%
dipengaruhi variabel lain yang tidak diteliti. Karena nilai R Square dibawah 5% atau
cenderung mendekati nilai 0 maka dapat disimpulkan kemampuan variabel-variabel
independen dalam menjelaskan variasi variabel amat terbatas.
Demikian penjelasan dari saya. Semoga bermanfaat bagi kita semua. Jangan lupa
lihat link Contoh Cara Analisis Data Dengan SPSS yang bisa di lihat dengan klik
disini. Atau jika tidak bisa bisa copy paste link ini di jendela baru:
(http://carapandangku.blogspot.com/2011/07/uji-asumsi-klasik-dengan-spss-
panduan_04.html#more)
Salam,
Sisca
Jika model signifikan maka model bisa digunakan untuk prediksi/peramalan, sebaliknya jika
non/tidak signifikan maka model regresi tidak bisa digunakan untuk peramalan.
Uji F dapat dilakukan dengan membandingkan F hitung dengan F tabel, jika F hitung > dari F
tabel, (Ho di tolak Ha diterima) maka model signifikan atau bisa dilihat dalam kolom
signifikansi pada Anova (Olahan dengan SPSS, Gunakan Uji Regresi dengan Metode
Enter/Full Model). Model signifikan selama kolom signifikansi (%) < Alpha (kesiapan
berbuat salah tipe 1, yang menentukan peneliti sendiri, ilmu sosial biasanya paling besar
alpha 10%, atau 5% atau 1%). Dan sebaliknya jika F hitung < F tabel, maka model tidak
signifikan, hal ini juga ditandai nilai kolom signifikansi (%) akan lebih besar dari alpha.
Uji t dikenal dengan uji parsial, yaitu untuk menguji bagaimana pengaruh masing-masing
variabel bebasnya secara sendiri-sendiri terhadap variabel terikatnya. Uji ini dapat dilakukan
dengan mambandingkan t hitung dengan t tabel atau dengan melihat kolom signifikansi pada
masing-masing t hitung, proses uji t identik dengan Uji F (lihat perhitungan SPSS pada
Coefficient Regression Full Model/Enter). Atau bisa diganti dengan Uji metode Stepwise.
Untuk mempelajari tentang bagaimana melakukan uji F dan uji t parsial, baca artikel kami
yang berjudul:
"Analisis Regresi Korelasi", "Analisis Regresi dalam Excel" dan "Regresi Linear Sederhana
dengan SPSS".
Apabila anda kesulitan, bisa menggunakan jasa kami untuk bantuan olah dan analisa data.