Bab IV
ANALISIS REGRESI BERGANDA
Tujuan Pembelajaran:
1. Dapat menjelaskan regresi linie berganda
2. Dapat menjelaskan estimasi koefisien regresi berganda melalui Eviews
3. Dapat menjelaskan varians dan kesalahan standar penaksir OLS
4. Dapat menjelaskan uji t koefisien regresi parsial
5. Dapat menjelaskan Koefisien Determinasi
6. Dapat menjelaskan Uji Hipotesis Regresi Keseluruhan (Uji -F)
7. Dapat menjelaskan Pemilihan Model Fungsi Regresi : Linier atau Log Linier
8. Dapat menjelaskan model terbaik regresi
Linear. Estimator β disebut linear jika estimator itu merupakan fungsi linear dari
smapel.
1 1
Rata-rata X́ = X = ( x1 + x 2 +…+ x n)
n∑ n
Adalah sejenis estimator yang linear, karena merupakan fungsi linear dari
nilai-nilai X. nilai2 OLS juga merupakan klas estimator yang linear.
Unbiased. Suatu estimator yang dilakukan unbiased jika nilai harapan
dari estimator β sama dengan nilai yang benar dari β.
Rata – rata β = β
Bias = Rata-rata β = β
Metode OLS (Ordinary Least Square ) yang dirumuskan di atas
merupakan penaksir yang memiliki sifat BLUE. OLS akan memiliki sifat BLUE
jika memenuhi asumsi-asumsinya, dari mana penurunan formula itu diturunkan.
Selain sama asumsi pada regresi sederhana, kita perlu asumsi-asumsi lagi
didalamnya. Adapun asumsinya adalah sebagai berikut:
1. Hubungan antara Y (Variael dependen) dan X (VAriabel independent) adalah
linear dalam parameter
2. Nilai X nilainya tetap untuk observasi yang berulang-ulang (non-observative).
Karena variabel independennya lebih dari satu maka ditambah asumsi tidak
ada hubungan linear antara variabel independent atau tidak ada
multikoliniearitas antara X1 dan X2 dalam persamaan (3.1)
3. Nilai harapan (expected value) atau rata-rata dari variabel gangguan adalah nol.
58
E (e|Xi)=0 (4.3)
4. Varian dari variabel gangguan atau residual ei adalah sama
(homoskedastisitas).
Var (ei|Xi) = E[ei- E(ei|Xi)]2 (4.4)
= E (ei2|Xi) karena asumsi 3
= e2
5. Tidak ada serial korelasi gangguan atau residual ei atau residual e i tidak sama
saling berhubungan dengan residual ei lain.
Cov (eiej|Xi Xj) = E[ei- E(ei|Xi)] [ej- E(ej|Xj)] (4.5)
= E (ei|Xi) (ej|Xj)
=0
6. Variabel gangguan ei berdistribusi normal.
Jika regresi linier berganda memenuhi 6 asumsi persamaan regresi linear
dapat diartikan sebagai berikut :
E (Yi 1 X1 , X2 ) = β0 + β1 X1i + β2i (4.6)
Arti persamaan tersebut adalah nilai harapan (expected value) atau rata-
rata dari Y pada nilai tertentu variabel independent X1 dan X2.
β0 adalah mengukur perubahan rata-rata Y atau nilai harapan E (Yi 1 X1 ,
X2), terhadap perubahan per unit X1 dengan asumsi varibael X2 tetap. Begitupula
β1 adalah mengukur perubahan rata-rata Y atau nilai harapan E(Y i 1 X1 , X2 )
terhadap perubahan per unit X2 dengan asumsi variabel X1 tetap.
Dimana:
KT = Kredit Total (milyar Rp.)
PDRBTK = Produk Domestik Regional Bruto (milyar Rp.)
IHK = Indeks Harga Konsumen (persen)
SBK = Suku Bunga Kredit (persen).
JD = Jumlah Deposito (milyar Rp.)
Log = Logaritma
βo = Konstanta
β1 ---- β4 = Koefisien regresi
e = Variabel gangguan (error term)
Pada spesifikasi persamaan ini kita akan isi adalah variabel dependen (Y)
kemudian diikuti oleh konstatntsa (c) dan kemudian variabel independen
(X1,X2, X3)
3. Lalu kita melakukan estimati dengan metode OLS maka akan muncul gambar
62
4. Untuk menamplkan persamaan regresi klik view lalu pilih representasi, akan
tampak gambar
σ2
Var( ^β 0) =
∑ x21 i (1−r 212 )
(4.14)
Se( ^β 0) = √ var ( ^β ¿ ¿ 1)¿
(4.15)
σ2
Var( ^β 2) =
∑ x22 i (1−r 212)
(4.16)
Se( ^β 2) = √ var ( ^β ¿ ¿ 2) ¿
(4.17)
Hasil perhitungan terkait stadar error melalui program eviews, berikut adalah
tampilannya
H 0 : β2 ≥ 0
H 1 : β2 < 0
Atau uji dua arah
H 0 : β2 = 0
H 1 : β2 ≠ 0
2. Menghitung nilai statistik t (t hitung) dan mencari nilai-nilai t kritis tabel
distribusi t pada α dan degree of freedom tertentu. Adapun t hitung dapat dicari
dengan formula sbb:
β 1 ( b topi ) −β¿1
t=
se ( β 1)(b topi)
¿
Dimana β 1 merupakan nilai pada hipotesis nul.
Atau, secara sederhana t hitung dapat dihitung dengan rumus:
βi
t=
Se i
3. Membandingkan nilai t hitung dengan t kritisnya (t tabel). Keputusan H 1
menolak atau menerima H0 sbb:
Jika nilai t hitung > nilai t kritis maka H 0 ditolak atau menerima H1 artinya
variabel itu signifikan
Jika nilai t hitung < nilai t kritis maka H 0 diterima atau menolak H1 artinya
variabel itu tidak signifikan.
Contoh Aplikasi Uji Hipotesis
Kita coba menggunakan data hasil regresi linear berganda dengan kasus di
atas untuk diuji hipotesisnya dengan uji-t. prosedurnya :
1. Membuat hipotesis :
variabel PDRB, dan jumlah deposito berpengaruh positif terhadap
permintaan kredit modal di Provinsi Sumatera Utara
Uji hipotesis positif ini menggunakan satu sisi.
H0 : β1 ≤ 0
Ha : β1 > 0
variabel IHK dan suku bunga kredit berpengaruh negative terhadap
permintaan kredit modal di Provinsi Sumatera Utara
Uji hipotesis positif ini menggunakan satu sisi.
66
H0 : β1 ≥ 0
Ha : β1 < 0
2. mencari nilai-nilai t kritis tabel distribusi t pada α dan degree of freedom
tertentu. Dari t tabel dengan : degree of freedom (df) = n– k = 36 – 5 = 31.
Dimana n adalah jumlah observasi dan k adalah jumlah variabel bebas
ditambah konstanta sehingga jumlah 5 (empat variabel + konstanta).
Maka, dengan df = 31 dan α = 5% maka diperoleh t tabel sebesar 1,684.
Tabel 4.2. Hasil Uji Hipotesis
c. Untuk sbk, karena niali t hitung (-2,38) > nilai t kritis (1,684) maka H0
ditolak atau menerima Ha, Variabel suku bunga kredit berpengaruh negatif
dan signifikan terhadap permintaan kredit modal di Provinsi Sumatera Utara
dengan perolehan nilai Prob. sebesar 0.0233 atau signifikan pada taraf alpha
5 persen.
d. Untuk jd, karena niali t hitung (9,08) > nilai t kritis (1,684) maka H0 ditolak
atau menerima Ha, Variabel jumlah deposito berpengaruh positif dan
signifikan terhadap permintaan kredit modal di Provinsi Sumatera Utara
dengan perolehan nilai Prob. sebesar 0.000 atau signifikan pada taraf alpha
1 persen.
variasi prediksi Y(=(Y^i) terhadap nilai rata-ratanya atau variasi garis regresi dari
nilai rata-ratanya dan total dari penjumlahan kuadrat nilai ini disebut explained
sum of squares (ESS). (Yi -Y^i) atau residual e adalah variasi dari Y yang tidak
dijelaskan oleh garis regresi atau variasi Y yang dijelaskan oleh variabel residual
68
dan nilai total dari penjumlahan kuadratnya disebut sum of squared residual
(SSR). dengan demikian maka persamaan (4.20) dapat ditulis kembali menjadi
persamaan sebagai berikut:
∑ ¿¿= ∑ ¿¿ + ∑ ¿¿ (4.21)
Atau dapat dinyatakan sebagai :
TSS = ESS + SSR (4.22)
Persamaan (4.22) ini menunjukkan bahwa total variasi dari Y dari
nilai rata-ratanya dijelaskan oleh dua bagian. Bagian pertamaterkait dengan
garis regresi dan satu bagian lainnya oleh variabel residual yang random karena
tidak semua data Y terletak apada garis regresi. Penjelasan ketiga konsep dapat
dilihat pada gambar
Jika garis regresi menjelaskan data dengan baik maka ESS akan lebih
besar dari SSR. pada kasus ekstrim bila semua garis regresi cocok dengan
datanya maka ESS sama dengan TSS dan SSR sama dengan nol. Di lain pihak
jika garis regresi kurang baik menjelaskan datanya SSR akan lebih besar dari
ESS. Pada kasus ekstrim jika garis regresi tidak menjelaskan semua dari variasi
Y maka ESS sama dengan nol dan SRR sama dengan TSS. Oleh karena itu jika
nilai ESS lebih besar dari SSR maka garis regresi menjelaskan proporsi yang
besar dari varisi Y sedangkan jika SSR lebih besar dari ESS maka garis regresi
hanya menjelaskan bagian kecil dari variasi Y.
Y
eˆi = variasi
karena residual
variasi total = (Y i – Y ˆ)
Ŷ
(Yˆ-Y)= variasi karena
regresi Y
Yˆi =βˆ0 +βˆ1X i
Gambar 4.6. Variasi nilai X yang dijelaskan oleh Y^ dan residual e^i
69
Dari penjelasan ini dapat didefinisikan bahwa R2 sebagai rasio antara ESS
dibagi dengan TSS. Formula R2 dengan demikian dapat ditulis sebagai berikut:
ESS
R2 =
TSS
(4.23)
= ∑ ¿¿ ¿
Karena TSS =ESS +SSR, maka sebagai alternatifnya :
ESS TSS−SSR
R2 = =
TSS TSS
ESS
R2 =1- (4.24)
TSS
=
1-
∑ e^ i2
∑ ¿¿¿
Dari formula persamaan (2.24) tersebut dengan demikian R2 dapat
didefinisikan sebagai proposi atau persentase dari total variasi variabel
dependen Y yang dijelaskan oleh garis regresi (variabel independen X). Jika
garis regresi tepat pada semua data Y maka ESS sama dengan TSS sehingga R2
=1, sedangkan jika garis regresi tepat pada rata-=rata nilai Y maka ESS = 0
sehingga R2 sama dengan nol. Dengan demikian, nilai koefisien determinasi ini
terletak antara 0 dan 1.
0≤ R2≤ 1 (4.25)
Semakin angkanya mendekati 1 maka semakin baik garis regresi karena
mampu menjelaskan data aktualnya. Semakin mendekati angka nol maka kita
mempunyai garis regresi yang kurang baik. Misalnya, jika R2 = 0,9889 artinya
bahwa garis regresi menjelaskan sebesar 98,89% fakta sedangkan sisanya
sebesar 1.11% dijelaskan oleh variabel residual yaitu variabel diluar model yang
tidak dimasukkan dalam model.
Koefisien determinasi hanyalah konsep statistik. Kita mengatakan bahwa
sebuah garis regresi adalah baik jika nilai R2 dapat terjadi karena beberapa
alasan. Dalam kasus khusus variabel independen (X) mungkin bukan variabel
yang menjelaskan dengan baik terhadap variabel dependen (Y) walaupun kita
percaya bahwa X mampu menjelaskan Y. Akan tetapi, dalam regresi runtut
70
waktu (time series) kita seringkali mendapatkan nilai R2 yang tinggi. hal ini
terjadi hanya karena setiap variabel yang berkembang dalam runtut waktu
mampu menjelaskan dengan baik variasi variabel lain yang juga berkembang
dalam waktu yang sama. Dengan kata lain data runtut waktu diduga
mengandung unsur tren yakni bergerak dalam arah yang sama. Dilain
pihak,dalam adat antar tempat atau ruang (cross section) akan menghasilkan
nilai R2 yang rendah. Hal ini terjadi karena adanya variasi besar antar variabel
yang diteliti pada periode waktu yang sama.
Dari contoh kasus diatas diperoleh bahwa pada tahap akhir uji statistik
diketahui nilai R2 adjusted, sebesar 0.962364. Hal ini menunjukkan bahwa
variabel PDRB, indeks harga konsumen, suku bunga kredit, dan jumlah deposito
berpengaruh terhadap permintaan kredit modal di Provinsi Sumatera Utara
sebesar 96,23 persen. Serta sisanya 3,77 persen dipengaruhi oleh variabel lain
yang tidak diteliti.
6. dari hasil diata tampak bahwa hubungan Kt dengan IHK berhubungan negatif .
7. Untuk menganalisis hubungan antar variabel independent lain dengna Y maka
caranya seperti diatas.
kemudian isi enter equation dengan na,a residual yang ingin kita simpan.
Misalnya nama residual persamaan regresi linier adalah res1 maka ketik
RES1=Resid kemudian klik ok sehingga muncul gambar
Ketentuan keputusannya:
Jika Z1 tidak signifikan secara statistik melalui uji t artinya model yang benar
adalah linier. Tetapi jika Z1 signifikan melalui uji t maka model yang benar
adalah log
Pada hasil regresi diatas diketahui bahwa t probabilty 0,86 diatas nilai 0,05
menunjukkan variabel z1 tidak signifikan sehngga kita menerima model fungsi
regresi adalah model fungsi linier.
Ketentuan
Jika Z2 signifikan secara statistik melalui uji t maka kita menolak hipotesis
model yang benar adalah log. Sedangkan jika Z2 tidak signifikan secara
statistik melalui uji t maka kita menerima hipotosis model yang benar adalah
linier
Pada hasil regresi diketahui bahwa nilai probability uji t adalah 0,08 diatas
0,05 maka tidak signifikan sehingga model yang benar adalah log.
independen, akan semakin memperkecil nilai Ŕ2. Nilai Ŕ2 masih bisa bertambah
78
Dan diketagui bahwa program Eviews atau SPSS juga telah masuk
penghitungan angka AIC ini.
Ketentuannya: Semakin kecil nilai AIC, maka semakin baik model.
∑ e^ 2i k
SIC=log ( ) n
+ log n
n
(4.32)
i(¿ n+1 , n+2 , …+n+t), dengan parameter yang diperoleh dari persamaan
regresi dan nilai variabel independen dari holdout sample atau postsample period.
σ^ 2 adalah estimator OLS dari σ 2 dari persamaan regresi.
Apabila hipotesisnya adalah nilai parameter tidak berubah antara data dan
holdout sample, maka x 2 akan mengikuti distribusi dengan t degree of freedom (t
adalah banyaknya periode yang dibuat prediksinya).
dimana :
TAH GD
FDI NTR SBR INF
UN P
98,77 3. 9,59 (1. 9.3
2000
4 12 5 65) 5
7 03 0 3 0