Regresi dalam pengertian moderen menurut Gujarati (2009) ialah sebagai kajian terhadap
ketergantungan satu variabel, yaitu variabel tergantung terhadap satu atau lebih variabel lainnya
atau yang disebut sebagai variabel – variabel eksplanatori dengan tujuan untuk membuat estimasi
dan / atau memprediksi rata – rata populasi atau nilai rata-rata variabel tergantung dalam kaitannya
dengan nilai – nilai yang sudah diketahui dari variabel ekslanatorinya. Selanjutnya menurut
Gujarati meski analisis regresi berkaitan dengan ketergantungan atau dependensi satu variabel
terhadap variabel – variabel lainnya hal tersebut tidak harus menyiratkan sebab – akibat
(causation). Dalam mendukung pendapatnya ini, Gujarati mengutip pendapat Kendal dan Stuart
yang diambil dari buku mereka yang berjudul “The Advanced Statistics” yang terbit pada tahun
1961 yang mengatakan bahwa,” suatu hubungan statistik betapapun kuat dan sugestifnya tidak
akan pernah dapat menetapkan hubungan sebab akibat (causal connection); sedang gagasan
mengenai sebab akibat harus datang dari luar statistik, yaitu dapat berasal dari teori atau lainnya”.
Sedang menurut Levin & Rubin (1998:648), regresi digunakan untuk menentukan sifat –
sifat dan kekuatan hubungan antara dua variabel serta memprediksi nilai dari suatu variabel yang
belum diketahui dengan didasarkan pada observasi masa lalu terhadap variabel tersebut dan
variabel-variabel lainnya. Selanjutnya dalam regresi kita akan mengembangkan persamaan
estimasi (estimating equation), yaitu rumus matematika yang menghubungkan variabel-variabel
yang diketahui dengan variabel-variabel yang tidak diketahui. Setelah dipelajari pola
hubungannya, kemudian kita dapat mengaplikasikan analisis korelasi (correlation analysis) untuk
menentukan tingkatan dimana variabel – variabel tersebut berhubungan.
Analisis regresi merupakan suatu model matematis yang dapat digunakan untuk
mengetahui pola hubungan antara dua atau lebih variabel. Istilah regresi yang berarti ramalan atau
taksiran pertama kali diperkenalkan Sir Francis Galton pada tahun 1877, sehubungan dengan
penelitiannya terhadap tinggi manusia, yaitu antara tinggi anak dan tinggi orang tuanya. Dalam
penelitiannya, Galton menemukan bahwa tinggi anak dan tinggi orang tuanya cenderung
meningkat atau menurun dari berat rata-rata populasi. Garis yang menunjukkan hubungan tersebut
disebut garis regresi.
Analisis regresi lebih akurat dalam melakukan analisis korelasi, karena pada analisis itu
kesulitan dalam menunjukkan slop (tingkat perubahan suatu variabel terhadap variabel lainnya
dapat ditentukan). Jadi dengan analisis regresi, peramalan atau perkiraan nilai variabel terikat pada
nilai variabel bebas lebih akurat pula. Karena merupakan suatu prediksi, maka nilai prediksi tidak
selalu tepat dengan nilai riilnya, semakin kecil tingkat penyimpangan antara nilai prediksi dengan
nilai riilnya, maka semakin tepat persamaan regresi yang dibentuk.
Dapat disimpulkan bahwa analisis regresi adalah metode statistika yang digunakan untuk
menentukan kemungkinan bentuk hubungan antara variabel variabel, dengan tujuan pokok dalam
penggunaan metode ini adalah untuk meramalkan atau memperkirakan nilai dari suatu variabel
lain yang diketahui.
Persamaan regresi
Adapun langkah-langkah yang perlu dilakukan untuk melakukan analisis dan uji regresi linier
sederhana adalah sebagai berikut :
Di mana:
Y = Variabel terikat (dependen)
= koefisien regresi
= Variabel bebas (independen)
Untuk hal ini, penulis menggunakan regresi linier berganda dengan tiga variabel, yaitu satu
variabel tak bebas (dependent variable) dan dua variabel bebas (independent variable). Bentuk
umum persamaan regresi linier berganda tersebut yaitu :
(2.5)
Nilai dari koefisien dapat ditentukan dengan metode kuadrat terkecil (least squared)
seperti berikut ini:
Harga-harga yang telah didapat kemudian disubstitusikan ke dalam persamaan
(2.5) sehingga diperoleh model regresi linier berganda Y atas X1 dan X2. Dalam persamaan model
regresi linier yang diperoleh, maka antara nilai Y dan Ŷ akan menimbulkan perbedaan hasil yang
sering disebut sebagai kekeliruan. Untuk mengetahui ketepatan persamaan estimasi dapat
digunakan kesalahan standar estimasi (standard error of estimate). Besarnya kesalahan standar
estimasi menunjukkan ketepatan persamaan estimasi untuk menjelaskan nilai variabel tidak bebas
yang sesungguhnya. Semakin kecil nilai kesalahan standar estimasi, makin tinggi ketepatan
persamaan estimasi yang dihasilkan untuk menjelaskan nilai variabel tidak bebas sesungguhnya.
Sebaliknya, semakin besar nilai kesalahan standar estimasi, makin rendah ketepatan persamaan
estimasi yang dihasilkan untuk menjelaskan nilai variabel tidak bebas sesungguhnya. Kesalahan
standar estimasi dapat ditentukan dengan rumus:
Koefisien determinasi
Koefisien determinasi adalah salah satu nilai statistik yang dapat digunakan untuk
mengetahui apakah ada hubungan pengaruh antara dua variabel. Nilai koefisien determinasi
menunjukkan persentase variasi nilai variabel dependen yang dapat dijelaskan oleh persamaan
regresi yang dihasilkan. Koefisien determinasi yang dinyatakan dengan R2 untuk pengujian regresi
linier berganda yang mencakup lebih dari dua variabel adalah untuk mengetahui proporsi
keragaman total dalam variabel tak bebas (Y) yang dapat dijelaskan atau diterangkan oleh variabel
variabel bebas (X) yang ada dalam model persamaan regresi linier berganda secara bersama-sama.
Maka R2 akan ditetukan dengan rumus, yaitu:
Harga R2 yang diperoleh sesuai dengan variansi yang dijelaskan masing-masing variabel
yang tinggal dalam regresi. Hal ini mengakibatkan variasi yang dijelaskan penduga yang
disebabkan oleh variabel yang berpengaruh saja (bersifat nyata).
Syarat-Syarat
Model kelayakan regresi linear dalam IBM SPSS didasarkan pada hal-hal sebagai berikut:
a. Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0.05
b. Predictor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika
angka Standard Error of Estimate < Standard Deviation
c. Koefesien regresi harus signifikan. Pengujian dilakukan dengan uji t. Koefesien regresi
signifikan jika t hitung > t table (nilai kritis). Dalam IBM SPSS dapat diganti dengan
menggunakan nilai signifikansi (sig) dengan ketentuan sebagai berikut:
Jika sig < 0,05; koefesien regresi signifikan
Jika sig > 0,05; koefesien regresi tidak signifikan
d. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi antar variabel
bebas yang sangat tinggi atau terlalu rendah. Syarat ini hanya berlaku untuk regresi linier
berganda dengan variabel bebas lebih dari satu. Terjadi multikolinieritas jika koefesien
korelasi antara variable bebas > 0,7 atau < - 0,7
e. Tidak terjadi otokorelasi jika: - 2 ≤ DW ≤ 2
f. Keselerasan model regresi dapat diterangkan dengan menggunakan nilai r2 semakin besar
nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model regresi
semakin baik. Nilai r2 mempunyai karakteristik diantaranya: 1) selalu positif, 2) Nilai r2
maksimal sebesar 1. Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang
sempurna. Maksudnya seluruh variasi dalam variabel tergantung (variabel Y) dapat
diterangkan oleh model regresi. Sebaliknya jika r2 sama dengan 0, maka tidak ada
hubungan linier antara variabel bebas (variabel X) dan variabel tergantung (variabel Y).
g. Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y)
h. Data harus berdistribusi normal
i. Data berskala interval atau rasio
j. Terdapat hubungan dependensi, artinya satu variabel merupakan variabel tergantung yang
tergantung pada variabel (variabel) lainnya.