Analisis Regresi
Analisis Regresi
1. Pendahuluan
Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton
pada tahun 1886. Analisis regresi pada dasarnya adalah studi mengenai
ketergantungan variabel dependen (terikat) dengan satu atau lebih
variabel independen (variabel penjelas/bebas), dengan tujuan untuk
mengestimasi dan/atau memprediksi rata-rata populasi atau nilai ratarata variabel dependen berdasarkan nilai variabel independen yang
diketahui (Gujarati, 2003).
Hasil analisis regresi adalah berupa koefisien untuk masing-masing
variabel independen. Koefisien ini diperoleh dengan cara memprediksi
nilai variabel dependen dengan suat persamaan. Koefisien regresi
dihitung dengan dua tujuan sekaligus: pertama, meminimumkan
penyimpangan antara nilai aktual dengan nilai estimasi variabel
dependen berdasarkan data yang ada (Tabachnick, 1996).
Dalam analisis regresi, selain mengukur kekuatan hubungan antara
dua variabel atau lebih juga menunjukkan arah hubungan antara
variabel dependen dengan variabel independen. Variabel dependen
diasumsikan random/stokastik, yang berarti mempunyai distribusi
probabilistik. Variabel independen/bebas diasumsikan memiliki nilai
tetap (dalam pengambilan sampel yang berulang).
2. Asumsi Ordinary Least Squares
Teknik estimasi variabel dependen yang melandasi analisis regresi
disebut pangkat kuadrat terkecil biasa (Ordinary Least Squares). Metode
Ordinary Least Squares (OLS) diperkenalkan pertama kali oleh Cari
Friedrich Gauss, seorang ahli matematika dari Jerman. Inti metode OLS
adalah mengestimasi suatu garis regresi dengan jalan meminimalkan
jumlah dari kuadrat kesalahan setiap observasi terhadap garis tersebut.
Menurut Gujarati (2003) asumsi utama yang mendasari model regresi
linear klasik dengan menggunakan model OLS adalah:
a. Model regresi linear, artinya linear dalam parameter seperti dalam
persamaan di bawah ini :
Yi = b1+b2Xi + ui
b. Nilai X diasumsikan non-stokastik, artinya nilai X dianggap tetap
dalam sampel yang berulang.
c. Nilai rata-rata kesalahan adalah nol, atau E(ui/Xi) = 0.
d. Homoskedastisitas, artinya variasi kesalahan sama untuk setiap
periode (Homo = sama, Skedastisitas = sebaran) dan dinyatakan
dalam bentuk matematis Var (ui/Xi) = 2.
e. Tidak ada autokorelasi antar kesalahan (antara ui dan uj tidak ada
korelasi) atau secara matematis Cov (ui,uj/Xi,Xj) = 0.
Analisis Regresi | 1
Analisis Regresi | 2
adjusted R2 = R2 = 1 sedangkan jika nilai R2 = 0, maka adjusted R2= (1 k)/(n - k). Jika k > 1, maka adjusted R2 akan bernilai negatif.
b. Uji Signifikansi Simultan (Uji F)
Uji statistik F pada dasarnya menunjukkan apakah semua variabel
independen atau bebas yang dimasukkan dalam model mempunyai
pengaruh secara bersama-sama terhadap variabel dependen/terikat.
Hipotesis nol (H0) yang hendak diuji adalah apakah semua parameter
dalam model sama dengan nol, atau:
H0 : b1 = b2 = ...... = bk = 0
Artinya, apakah semua variabel independen bukan merupakan penjelas
yang signifikan terhadap variabel dependen. Hipotesis alternatifnya (H 1)
tidak semua parameter secara simultan sama dengan nol, atau:
H1 : b1 b2 ...... bk 0
Artinya semua variabel independen secara simultan merupakan penjelas
yang signifikan terhadap variabel dependen.
Untuk menguji hipotesis ini digunakan statistik F dengan kriteria
pengambilan keputusan sebagai berikut:
Quick look: bila nilai F lebih besar daripada 4 maka H 0 dapat ditolak
pada derajat kepercayaan 5%., Dengan kata lain kita menerima
hipotesis alternatif, yang menyatakan bahwa semua variabel
independen secara serentak dan signifikan mempengaruhi variabel
dependen.
Membandingkan nilai F hasil perhitungan dengan nilai F menurut
tabel. Bila nilai F hitung lebih besar dari nilai F tabel, maka H 0 ditolak
dan H1 diterima.
c. Uji Signifikansi Parsial (Uji t)
Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh
satu variabel penjelas/independen secara individual dalam menerangkan
variasi variabel dependen. Hipotesis nol (H 0) yang hendak diuji adalah
apakah suatu parameter (bi) sama dengan nol, atau :
H0 : bi = 0
Artinya apakah suatu variabel independen bukan merupakan penjelas
yang signifikan terhadap variabel dependen. Hipotesis alternatifnya (H 1)
parameter suatu variabel tidak sama dengan nol, atau:
HA : bi 0
Artinya, variabel tersebut merupakan penjelas yang signifikan terhadap
variabel dependen.
Analisis Regresi | 3
X2
X3
Analisis Regresi | 4
Analisis Regresi | 5
4. Hasil output
Regression
Variables Entered/Removedb
Model
Variables
Variables
Entered
Removed
1
X3, X1, X2a
.
a. All requested variables entered.
b. Dependent Variable: Y
dime
nsion
Method
Enter
Regression
Residual
Total
Sum of Squares
88,275
86,929
ANOVAb
df
175,204
3
50
Mean Square
29,425
1,739
F
16,925
Sig.
,000a
53
Dari uji ANOVA atau Uji F diperoleh nilai F hitung sebesar 16,925
dengan signifikansi 0,000. Nilai signifikansi yang dipersyaratkan
diterima adalah lebih kecil dari 0,05. Karena 0,000 < 0,05, maka
dapat dikatakan bahwa variabel X1, X2 dan X3 secara bersama-sama
(simultan) berpengaruh terhadap variabel Y.
Uji Signifikansi Parsial (Uji t)
Analisis Regresi | 6
Coefficientsa
Model
(Constant)
X1
X2
X3
a. Dependent Variable: Y
Unstandardized Coefficients
B
Std. Error
8,910
2,218
,016
,498
,342
,202
,196
,143
Standardized
Coefficients
Beta
,015
,505
,284
t
4,017
Sig.
,000
,080
2,537
2,387
,937
,014
,021
Analisis Regresi | 7