Anda di halaman 1dari 4

• Dasar Pengambilan Keputusan Uji Regresi LinearSederhana

Regresi linier sederhana digunakan untuk tujuan memprediksi atau

menguji pengaruh satu variabel bebas terhadap variabel terikat. Kriteria yang

digunakan dalam menggunakan uji regresi linier sederhana yaitu sebagai

berikut :

a. Apabila teknik analisis data hanya terdiri dari satu sampai dua variabel

bebas maka yang digunakan hasil hitung R-Square.

b. Apabila jumlah variabel bebasnya lebih dari dua maka lebih baik

menggunakan Adjusted R Square yang nilainya lebih kecil dari R-Square.

Nilai R square dikatakan baik jika diatas 0,5 karena nilai R square

berkisar antara 0 sampai 1. Koefisien korelasi mempunyai kriteria-kriteria

diantaranya sebagai berikut :

Dalam penelitian ini uji regresi linier sederhana dilakukan dengan

menggunakan bantuan program SPSS (Statistical Package for Social Science)

versi 25 dengan Uji Linear Regression.


• Dasar Pengambilan Keputusan Uji Regresi Berganda

Untuk mendapatkan persamaan regresi yang baik dilakukan uji asumsi klasik

yang mencakup:

(1) Uji Normalitas residual.

Pengujian ini untuk mengetahui apakah nilai residual terdistribusi secara

normal atau tidak. Model regresi yang baik adalah yang memiliki nilai

residual yang terdistribusi secara normal. Cara untuk mendeteksinya

adalah dengan melihat penyebaran data pada sumber diagonal pada grafik

Normal P-P Plot of regression standar dizeds ebagai dasar pengambilan

keputusannya. Jika menyebar sekitar garis dan mengikuti garis diagonal

maka model regresi tersebut telah normal dan layak dipakai untuk

memprediksi variabel bebas dan sebaliknya. Cara lain uji normalitas

adalah dengan metode uji One Sample Kolmogorov Smirnov. Kriteria

pengujiannya adalah sebagai berikut: -Jika nilai Signifikansi (Asym Sig 2

tailed) > 0,05, maka data berdistribusi normal.-Jika nilai Signifikansi (Asym

Sig 2 tailed < 0,05, maka data tidak berdistribusi normal.

(2) Uji Multikolinearitas.

Multikolinearitas merupakan keadaan dimana terjadi hubungan linear yang

sempurna atau mendekati antar variabel independen dalam model

regresi. Suatu model regresi dikatakan mengalami multikolinearitas

jika ada fungsi linear yang sempurna pada beberapa atau semua

independen variabel dalam fungsi linear. Gejala adanya multikoliniearitas

antara lain dengan melihat nilai Variance Inflation Factor(VIF) dan

Tolerancenya.Jika nilai VIF< 10 dan Tolerance> 0,1 maka dinyatakan

tidak terjadi multikolinearitas.


(3) Uji Heteroskedastisitas

Heteroskedastisitas merupakan keadaan dimana terjadi ketidaksamaan

varian dari residual untuk semua pengamatan pada model regresi. Cara

pengujiannya dengan Uji Glejser. Pengujian dilakukan dengan

meregresikan variable-variabel bebas terhadap nilai absolute residual.

Residualadalah selisih antara nilai variabel Y dengan nilai variabel Y

yang diprediksi, dan absolut adalah nilai mutlaknya (nilai positif semua).

Jika nilai signifikansi antara variabel independen dengan absolut residual >

0,05 maka tidak terjadi heteroskedastisitas.

(4) Uji Autokorelasi.

Autokorelasi merupakan keadaan dimana pada model regresi ada

korelasi antara residual pada periode t dengan residual pada periode

sebelumnya (t-1). Model regresi yang baik adalah yang tidak adanya

autokorelasi.Ujiautokorelasi dapat dilakukan dengan pengujian Durbin

Watson(DW)dengan kriteria pengambilan keputusannya: 1,65 < DW< 2,35,

artinya tidak terjadi autokorelasi; 1,21<DW<1,65 atau 2,35 < DW < 2,79

artinya tidak dapat disimpulkan dan DW < 1,21 atau DW > 2,79artinya terjadi

autokorelasi.

(5) Uji t.

Uji ini dalam regresi berganda digunakan untuk mengetahui apakah

model regresi variabel independen secara parsial berpengaruh signifikan

terhadap variabel dependen. Hipotesis:-Ho: Tidak ada pengaruh X1, X2

secara parsial terhadap Y3-Ha: Ada pengaruh X1, X2 secara parsial

terhadap Y3 Kriteria pengambilan keputusan:-Ho diterima bila Signifikansi >

0,05 (tidak berpengaruh)-Ho ditolak bila Signifikansi < 0,05(berpengaruh)


(6) Uji F.

Uji inidigunakan untuk mengetahui apakah variabelindependen secara

bersama-sama berpengaruh secara signifikan terhadap

variabeldependen.Hipotesis:-Ho: Tidak ada pengaruh X1, X2 secara

bersama-sama terhadap Y3-Ha: Ada pengaruh X1, X2 secara bersama-

sama terhadap Y3 Kriteria pengambilan keputusan:-Ho diterima bila

Signifikansi > 0,05 (tidak berpengaruh)-Hoditolak bila Signifikansi <

0,05(berpengaruh)

(7) Analisis Determinasi (R Square)

Analisis determinasi merupakan ukuran yang menunjukkan seberapa

besar variabel X memberikan kontribusi terhadap variabel Y. Analisis ini

digunakan untuk mengetahui prosentase sumbangan pengaruh variabel

independen secara serentak terhdap variabel dependen.

Seluruh analisis statistika untukdata dan analisis regresi untuk

penetapan persamaanallometrikdikerjakan dengan SPSS software

package (ver.21). Ini merupakan suatu sistem komprehensif dalam

melakukan analisis data. SPSS Statistics ini dapat menangani data dari

hampir jenis file apapun dan dipakai untuk membuat laporan tabulasi,

statistik deskriptif, aneka grafik, plot-plot distribusi, kecenderungan

bahkan analisis statistik yang rumit sekalipun

Anda mungkin juga menyukai