Anda di halaman 1dari 21

MULTIKOLINIERITAS

A.

Pengertian Multikolinieritas
Analisis regresi linier berganda digunakan untuk
menganalisis hubungan linear antara dua atau lebih
variabel bebas secara bersama-sama dengan satu variabel
terikat. Adanya korelasi antar variabel yang cukup tinggi
menimbulkan multikolinearitas yang menyebabkan model
persamaan regresi yang diperoleh mnjadi kurang layak.
Multikolinieritas ditemukan pertama kali oleh Ragnar
Frisch (Institute of Economics, Oslo University). Pada
awalnya,
hubungan

pengertian
yang

multikolinieritas

linier

sempurna

atau

adalah

adanya

pasti

diantara

beberapa atau semua variabel bebas dalam model regresi.


Perkembangannya, multikolinieritas juga berarti adanya
hubungan linier yang kuat tetapi tidak sempurna diantara
beberapa atau semua variabel bebas dalam model regresi.
Supranto, J. (1992) dalam bukunya mengatakan
istilah kolinieritas ganda (Multicolliniearity) merupakan
hubungan linier yang sempurna atau eksak diantara
variabel-variabel
kolinieritas
sedangkan

bebas

sendiri

dalam

berarti

kolinieritas

model

regresi.

hubungan
ganda

linier

Istilah
tunggal,

(multikolinieritas)

menunjukkan adanya lebih dari satu hubungan linier yang


sempurna.
Maksud dari adanya hubungan linier antara variabl
bebas Xi adalah sebagai berikut : misalkan terdapat dua
variabel bebas X1 dan X2. Jika X1 dapat dinyatakan sebagai
fungsi linier dari X2

atau sebaliknya, maka dikatakan

bahwa ada hubungan antara X1 dan X2.


Misalkan

secara

substansi

diketahui

bahwa

total

pendapatan (X1) adalah penjumlahan pendapatan dari


upah (X2) dan pendapatan bukan upah (X3), hubungannya

adalah X1 = X2+X3. Bila model ini diestimasi dengan OLS,


maka 1 tidak dapat diperoleh karena [XTX]-1 tidak dapat
dicari, kejadian inilah yang dinamakn multikolinieritas
sempurna.
Dalam hal lain, misalkan :
Konsumsi = 1 + 2 pendapatan + 3 kekayaan +
Ada hubungan positif antara kekayaan dan pendapatan,
dalam arti seseorang yang kaya cenderung berpendapatan
tinggi. Jika model ini di estimasi dengan OLS, dapat
ditemukan, tetapi variansi yang dihasilkan besar yang
mengakibatkan galatnya besar, sehingga kurang tepat.
Disimpulkan

terjadi

multikolinieritas

yang

hamper

sempurna. Permasalahan ini membawa dampkan yang


tidak baik bagi model.
Salah satu asumsi dari model regresi linier klasik
adalah

tidak

adanya

multikolinieritas.

Jika

terdapat

multikolinieritas di dalam persamaan regresi tersebut maka


akan

mengakibatkan

penggunaan

OLS

dalam

mengestimasi parameter/koefisien regresi akan terganggu.


Jika

multikolinieritas

yang

hampir

sempurna

terjadi,

meskipun metode kuadrat terkecil dapat digunakan tetapi


galat yang dihasilkan akan menjadi besar, variansi dan
kovariansi parameter tidak terhingga.
B.

Cara Mendeteksi Multikolinieritas


Ada

beberapa

cara

untuk

mengetahui

ada

tidaknya

multikolinieritas diantaranya adalah :


a. Menurut Gujarati (1978), Menghitung koefisien korelasi
sederhana (simple correlation) antara sesama variabel
bebas, jika terdapat koefisien korelasi sederhana yang
mencapai

atau

melebihi

0.8

maka

hal

tersebut

menunjukkan

terjadinya

masalah

multikolinearitas

dalam regresi.
b. Dengan melihat nilai VIF (Varian Infloating Factor)
VIF = 1 / (1 R2)
Untuk yang dua variabel bebas, nilai R nya dapat
dihitung dengan :
x2
2
N x 2 ()

2
2
N x 1 ( x 1 )

x 2( x ) ( x )
N x 1

r x x =
1

Andaikan kita memiliki tiga buah variabel bebas: X 1, X2,


dan X3 dan ketiganya mau diregresikan dengan sebuah
variabel tak bebas Y. Nilai VIF kita hitung untuk masingmasing X.
Untuk X1, prosedurnya adalah

Regresikan X1 terhadap X2 dan X3, atau modelnya X1


= b0 + b1 X2 + b2 X3 + e

Hitung R2 dari model tersebut

VIF untuk X1 adalah VIF1 = 1 / (1 R2)

Untuk X2, sama juga dengan prosedur di atas

Regresikan X2 terhadap X1 dan X3, atau modelnya X2


= b0 + b1 X1 + b2 X3 + e

Hitung R2 dari model tersebut

VIF untuk X2 adalah VIF2 = 1 / (1 R2)

Untuk X3, sama juga dengan prosedur di atas

Regresikan X3 terhadap X1 dan X2, atau modelnya X3


= b0 + b1X1 + b2 X2 + e

Hitung R2 dari model tersebut

VIF untuk X2 adalah VIF3 = 1 / (1 R2)

R2 dalam hitungan di atas adalah ukuran keeratan antar


X. Jika R2 = 0, maka VIF = 1. Kondisi ini adalah kondisi
ideal. Jadi idealnya, nilai VIF = 1.
Semakin besar R2, maka VIF semakin tinggi (semakin
kuat

adanya

collinearity).

Misal

R2

0.8

akan

menghasilkan VIF = 5.
Tidak ada batasan baku berapa nilai VIF dikatakan
tinggi, nilai VIF di atas 5 sudah membuat kita harus hatihati.
Menurut Gujarati (1978), jika nilai Toleransi kurang dari
0.1 atau nilai VIF melebihi 10 maka hal tersebut
menunjukkan bahwa multikolinearitas adalah masalah
yang pasti terjadi antar variabel bebas.
c. R2 tinggi, tapi tidak ada / hanya sedikit variabel bebas
yang signifikan secara statistik
d. Jika pengujian F untuk regresi adalah nyata tetapi
pengujian pada koefisien regresi secara individu tidak
nyata, maka multikolinieritas mungkin terjadi.
e. Koefisien korelasi antar variabel bebas tinggi atau
mendekati 1.
Misalkan ada data sebagai berikut :
Y
5
8
8
9
9
13
6
9
4
3

X1
2
3
5
4
6
2
3
4
5
6

X2
3
4
6
5
7
6
4
5
4
3

Menghitung manual
x2
2
N x 2 ()

2
N x 12( x 1 )

x 2( x ) ( x )
N x 1

r x x =
1

Korelasi X1.X2 (r) = 0,223


r2 = 0,05
VIF = 1/ (1 - r2)
VIF = 1/ (1- 0,05)
VIF = 1,052
Jadi, VIF = 1,052 < 10, artinya tidak
multikolinieritas.

Menggunakan SPSS

terjadi

Coefficientsa
Standardiz
ed
Unstandardized Coefficient
Coefficients

Collinearity

Statistics
Toleranc

Model
1

Std. Error

(Constant 2.55
)

X1

1.09

Beta

Sig.

VIF

1.626

1.570

.160

.271

-.552 -4.029

.005

.950 1.052

.000

.950 1.052

2
X2

1.96
1

.302

.889

6.490

Dependent
variable: Y
Dikarenakan VIF =1,052 < 10 maka diindikasikan tidak terjadi
multikolinieritas
C.

Akibat adanya Multikolinieritas


Akibat yang ditimbulkan jika terdapat multikolinieritas
antara lain adalah sebagai berikut:
a. Meski penaksir OLS bisa diperoleh, standard error
(kesalahan baku) cenderung semakin besar dengan
meningkatnya korelasi antar variabel bebas
b. Besarnya standard error berakibat, selang keyakinan
(confidence interval) untuk suatu parameter menjadi
lebih lebar
c. Kesalahan tipe II meningkat
d. Pada multikolinieritas yg tinggi tapi tidak sempurna,
bisa terjadi R2 (koefisien determinasi) tinggi namun
tidak satupun variabel signifikan secara statistik.

D.

Solusi Mengatasi Multikolinieritas


Ada

beberapa

cara

untuk

mengatasi

adanya

multikolinieritas diantaranya adalah sebagai berikut :

Mengeluarkan satu atau beberapa variabel bebas


Beberapa metode yg dapat digunakan:
- Principle Component Analysis
- Factor Analysis
- Ridge Regression, dan sebagainya.
1. Penambahan responden baru.
2. Menghubungkan data cross section dan data time
series (data panel)

Metode Ridge Regression


Metode kuadrat terkecil menghasilkan penaksir terbaik (tak
bias dan bervarians minimum) jika saja tidak ada korelasi antar
variable bebas. Namun jika hal itu terjadi, maka salah satu cara
untuk mengatasi masalah tersebut adalah melalui metode Ridge
regression. Pada dasarnya metode ini juga merupakan metode
kuadrat terkecil. Perbedaannya adalah bahwa pada metode ridge
regression, nilai variabel bebasnya ditransformasikan dahulu
melalui prosedur

centering and rescaling. Kemudian pada

diagonal utama matriks korelasi variable bebas ditambahkan


biasing constant (c) dimana nilainya antara 0 dan 1 (Neter et al.,
1990). Metode ridge regression dapat digunakan dengan asumsi
matriks korelasi dari variable bebasnya dapat diinverskan.
Akibatnya nilai dugaan koefisien regresi dan variable tak
bebasnya mudah didapat.
Y^

= b1RZi1* + b2RZi2* + . . . + bp-1R Zip-1*

bR = (rxx + c I)-1 rxy


dimana:
c = biasing constant
I = identity matrix

matriks korelasi

||
R

bR [(p-1) x 1] =

b1
R
b2

R
b p 1

Tahapan dalam metode ridge regression:


1. Lakukan transformasi tehadap matriks X menjadi Z dan
vektor Y menjadi YR, melalui centering and rescaling
2. Hitung matriks Z'Z => matriks korelasi dari variable bebas,
serta hitung Z'YR => korelasi dari variable bebas terhadap
variable tak bebas y
3. Hitung nilai penaksir parameter bR dengan berbagai
kemungkinan tetapan bias c
4. Hitung nilai VIF dengan berbagai nilai c (0<c<1)
5. Tentukan nilai c dengan mempertimbangkan nilai VIF dan
bR, koefisien penduga (estimator) ridge regression dari nilai
c yang terpilih
6. Buat persamaan model Ridge Regression
7. Uji Hipotesis secara Simultan dengan ANOVA Ridge
Regression
8. Transformasikan ke bentuk asal.
a. Metode Centering and Rescaling
Dalam persamaan regresi yang memiliki model:
Yi = 0 + 1Xi1 + 2Xi2 + i
Persamaan tersebut di atas dapat dibentuk menjadi:
Yi = 0 + 1 (Xi1
X 2 + i
= (0 + 1

X 1

X 1 ) + 1

+ 2

X 1

+ 2(Xi2 - X 2 ) + 2

X 2 ) + 1 (Xi1 -

- X 2 ) + i
menurut rumus untuk mendapatkan 0 yaitu:

X 1 ) + 2 (Xi2

0 =

X 1 - 2

Y - 1

X 2

maka berlaku
X 1 + 2

Y = 0 + 1

X 2

sehingga
X 1 + 2

Yi (0 + 1

X 2 ) = 1 (Xi1 -

X 1

) + 2(Xi2 -

X 2 ) + i

Yi -

Y = 1 (Xi1 -

Jika yi = Yi -

X 1

) + 2(Xi2 -

X 2 ) + i

xi1 = Xi1 -

X 1

xi2 = Xi2 -

X 2

maka kita dapat persamaan baru yaitu:


yi = 1xi1 + 2xi2 + i
Prosedur untuk membentuk persamaan pertama menjadi
persamaan terakhir disebut dengan prosedur centering. Prosedur
ini mengakibatkan hilangnya 0 (intercept) yang membuat
perhitungan

untuk

mencari

model

regresi

menjadi

sederhana.
Bila dari persamaan di atas kita bentuk persamaan:
Yi

= 1Zi1 + 2Zi2 + i

Dengan
YiR =
Zi1 =
Zi2 =

yi
S Y n1

xi
S 1 n1
xi 1
S 2 n1

Yi Yi
S Y n1

Xi 1 X 1
S 1 n1

Xi 2 X 2
S 2 n1

lebih

Keterangan:
R

Yi

: nilai variabel tak bebas ke-i hasil trasformasi

Yi

: nilai variabel tak bebas ke-i

: rata-rata variabel tak bebas

: Jumlah Observasi

SY

(
n

i=1

Z
i1

: nilai variabel bebas 1 ke-i hasil trasformasi

Xi1

: nilai variabel bebas 1 ke i

X 1

: rata-rata variabel bebas 1

S1

(
(
n

i=1

S2

i=1

maka

2
Y iY ) /(n1)

prosedur

1 ) /(n1)
X i 1 X
2 )2 /(n1)
X i 2 X

ini

disebut

dengan

prosedur

Rescaling.

Keseluruhan dari prosedur di atas disebut prosedur centering


and rescaling.
b. Menghitung matriks Z'Z serta menghitung Z'Y*
ZZ = rxx
ZY* = ryx

rxx [(p-1) x (p-1)] =

ryx[(p-1) x 1] =

1
r 21

r 12
1

r p1,1 r p1,2

[ ]
r y1
r y2

r y , p1

r 1, p1
r 2, p1

c. Menentukan tetapan bias / biasing constant (c)


Menurut

Neter

dkk,

dalam

bukunya

Applied

Linear

Regression Models menyarankan memilih ridge parameter


dengan menggunakan cara ridge trace.
Ridge trace merupakan plot dari estimator ridge regresi
secara

bersama

dengan

berbagai

kemungkinan

nilai

tetapan bias c. Konstanta c mencerminkan jumlah bias


dalam estimator

^ ( c ). Saat c bernilai 0 maka estimator

^ ( c ) akan bernilai sama dengan estimator kuadrat


terkecil

estimator

>

yang telah dalam bentuk standardized. Ketika


ridge

regression

akan

bias

tetapi

cenderung menjadi lebih stabil daripada estimator kuadrat


terkecil. Umumnya nilai c terletak pada interval 0<c<1.
Pemilihan besarnya tetapan bias c merupakan masalah
yang perlu diperhatikan. Tetapan bias yang diinginkan
adalah tetapan bias yang relative kecil dan menghasilkan
koefisien estimator yang relative stabil.
Suatu acuan yang digunakan untuk memilih besarnya c,
dengan

melihat

besarnya

VIF

dan

melihat

pola

kecenderungan Ridge Trace. VIF merupakan faktor yang


mengukur seberapa besar kenaikan variansi dari koefisien
estimator

^
k

dibandingkan terhadap variable bebas lain

yang saling orthogonal. Bila diantara variable bebas


tersebut terdapat korelasi yang tinggi, nilai VIF akan besar.
VIF memiliki nilai mendekati 1 jika variable bebas X tidak
saling berkorelasi dengan variabbel-variabel bebas lainnya.
Nilai VIF untuk koefisien ridge regression adalah element
diagonal pada matriks (p-1) x (p-1) berikut:
(rxx + c I)-1 rxx (rxx + c I)-1

Cara pemilihan ini memang bersifat subyektif, artinya jika


ada 2 orang pemilih memilih nilai c dengan data yang
sama mungkin akan mendapatkan nilai c yang tidak sama.
d. Pengujian Hipotesis
Uji Simultan Untuk Semua
R

H 0 : =0

(Variabel bebas secara simultan tidak signifikan

di dalam model)
H0: R 0

(Variabel bebas secara simultan signifikan di


dalam model)
H0

Daerah kritis: tolak

p; n p1;
jika

Fhitung > F

ANOVA Ridge Regression


SOV

DF

SS

MS

Regres

SSRegR

Error

n-p-1

SSER

Total

n-1

SSTR

Fhitung

MSRegR MSRegR/MSER

SST R = ( Y i Y

R 2

) =1

SSE R = ( Y iRY^ R )

MSER

MSReg R=

SSReg R
p

SSReg R =SST R SSE R

MSE R=

SSE R
np1

e. Teknik Transformasi ke Bentuk Asal


Untuk

kepentingan

estimasi,

maka

model

Regression dapat ditransformasi kembali ke


variabel asalnya ( b R

ke

b ) dengan cara:

Ridge
bentuk

bi=

Sy R
b
S xi i

( )

; i = 1,2,....,p-1

p1
b0 =Y b 1 X 1 b p1 X
Akhirnya

didapat model

regresi berganda

yang siap

digunakan untuk estimasi


Y^ i=b 0+ b1 X i 1+ b2 X i 2+ +b p 1 X i (p 1)

Contoh soal yang mengandung multikolinieritas dan cara untuk


mengatasinya
Y
15.9
16.4
19
19.1
18.8
20.4
22.7
26.5
28.1
27.6
26.3
31.1
33.3
37
43.3

X1
149.3
161.2
171.5
175.5
180.8
190.7
202.1
212.4
226.1
231.9
239
258
269.8
288.4
304.5

X2
4.2
4.1
3.1
3.1
1.1
2.2
2.1
5.6
5
5.1
0.7
5.6
3.9
3.1
4.6

X3
108.1
114.8
123.2
126.9
132.1
137.7
146
154.1
162.3
164.3
167.6
176.8
186.6
199.7
213.9

49.3
50.3
56.6

323.4
336.8
353.9

7
1.2
4.5

223.8
232
242.9

Mendeteksi multikolinieritas dengan SPSS:


Coefficientsa
Standardiz
ed
Unstandardize Coefficient
Collinearity
d Coefficients
s
Statistics
Std.
Toleranc
Model
B
Error
Beta
t
Sig.
e
VIF
1 (Consta
nt)
19.85
4.146
4.79 .000
8
0
X1
469.74
.031
.188
.159 .167 .870
.002
2
X2
1.33
.431
.324
.060
.204
.952 1.050
2
X3
469.37
.245
.287
.813 .853 .408
.002
1
a. Dependent Variable: Y
Dari

data

diatas

dapat

disimpulkan

bahwa

terdapat

multikolinieritas, hal ini dikarenakan nilai VIF untuk barang yang


dipesan dan barang yang dikonsumsi lebih besar dari 10.

Cara mengatasi dengan menggunakan Ridge Regression


1. Transformasi tehadap matriks X menjadi Z dan vektor Y
menjadi YR, melalui centering and rescaling
YiR =
Zi1 =

yi
S Y n1

xi
S 1 n1

=
=

Yi Yi
S Y n1
Xi 1 X 1
S 1 n1

Zi2 =
Zi3 =
SY

xi 1
S 2 n1

xi 1
S 3 n1

(
(
(
(
n

:
:

i=1

S X2

i=1

S X3

Xi 2 X 2
S 2 n1

Xi 3 X 3
S 3 n1
2

Y iY ) /(n1)

i=1

S X1

i=1

= 12.5082

1 )2 /(n1)
X i 1 X

= 63.51674

2 )2 /(n1) = 1.74138
X i 2 X
2
X i 3 X 3 ) /(n1) = 41.58106

Y = 30.0944
X 1=237.517

X 2=3.6778
X 3=167.378

YR
-0.275231

Z1
-0.336851

Z2
0.072734

Z3
-0.345758

-0.265536

-0.291412

0.058806

-0.306678

-0.215122

-0.252081

-0.080471

-0.257682

-0.213183

-0.236808

-0.080471

-0.236100

-0.219000

-0.216570

-0.359026

-0.205770

-0.187976

-0.178767

-0.205821

-0.173106

-0.143379

-0.135237

-0.219749

-0.124693

-0.069697

-0.095907

0.267722

-0.077447

-0.038672

-0.043594

0.184156

-0.029618

-0.048367

-0.021447

0.198084

-0.017952

-0.073575

0.005664

-0.414737

0.001296

0.019498

0.078215

0.267722

0.054958

0.062156

0.123272

0.030951

0.112120

0.133899

0.194296

-0.080471

0.188530

0.256057

0.255773

0.128445

0.271357

0.372397

0.327941

0.462711

0.329102

0.391787

0.379109

-0.345099

0.376931

0.513945

0.444404

0.114517

0.440509

2. Menghitung matriks Z'Z serta Z'YR


Correlations
Z1
Z2
Z1

Z2

Z3

Pearson
Correlation
Sig. (2-tailed)
N
Pearson
Correlation
Sig. (2-tailed)
N
Pearson
Correlation
Sig. (2-tailed)

Z3

YR

.215

.999

.984

18

.391
18

.000
18

.000
18

.215

.214

.268

.391
18

18

.395
18

.282
18

.999

.214

.985

.000

.395

.000

YR

N
Pearson
Correlation
Sig. (2-tailed)
N

Z'Z = rxx =

Z'Y

18

18

18

18

.984

.268

.985

.000
18

.282
18

.000
18

18

1
0,215 0,999
0,215
1
0,214
0,999 0,214
1

[ ]

0,984
r xy = 0,268
0,985

3. Penentuan nilai biasing constant c


Nilai VIF
k

0.000000
0.001000
0.002000
0.003000
0.004000
0.005000
0.005000
0.006000
0.007000
0.008000
0.009000
0.010000

^ (c) dengan berbagai Nilai c


Z1
469.7302
125.1853
56.9748
32.5057
21.0308
14.7464
14.7464
10.9358
8.4524
6.7443
5.5195
4.6114

Z2
1.0499
1.0465
1.0440
1.0417
1.0394
1.0372
1.0372
1.0350
1.0328
1.0306
1.0284
1.0262

Z3
469.3596
125.0871
56.9305
32.4808
21.0150
14.7356
14.7356
10.9280
8.4465
6.7398
5.5160
4.6086

0.020000
0.030000
0.040000
0.050000
0.060000
0.070000
0.080000
0.090000
0.100000
0.200000
0.300000
0.400000
0.500000
0.600000
0.700000
0.800000
0.900000
1.000000

1.4570
0.8054
0.5664
0.4520
0.3878
0.3478
0.3208
0.3014
0.2868
0.2250
0.1983
0.1790
0.1633
0.1500
0.1384
0.1282
0.1192
0.1111

1.0047
0.9840
0.9639
0.9444
0.9255
0.9071
0.8894
0.8721
0.8553
0.7115
0.6014
0.5152
0.4465
0.3907
0.3449
0.3067
0.2746
0.2473

1.4566
0.8055
0.5667
0.4524
0.3883
0.3482
0.3212
0.3018
0.2872
0.2254
0.1986
0.1793
0.1636
0.1502
0.1386
0.1284
0.1193
0.1112

Dari tabel diatas tampak mulai tetapan bias c = 0,000 sampai c


= 1 , VIF koefisien estimator

^ (c) semakin lama semakin kecil.

Nilai VIF yang diambil adalah VIF yang relatif dekat dengan satu,
sedangkan nilai koefisien estimator parameter dengan berbagi
kemungkinan bias c dapat dilihat pada tabel berikut :

k
0.000000
0.001000
0.002000
0.003000
0.004000
0.005000
0.005000
0.006000
0.007000
0.008000
0.009000
0.010000
0.020000
0.030000
0.040000
0.050000

Z1
0.1591
0.3171
0.3719
0.3996
0.4162
0.4273
0.4273
0.4352
0.4411
0.4456
0.4491
0.4520
0.4645
0.4674
0.4678
0.4671

Z2
0.0601
0.0598
0.0598
0.0598
0.0598
0.0598
0.0598
0.0598
0.0599
0.0599
0.0599
0.0600
0.0604
0.0608
0.0612
0.0616

Z3
0.8128
0.6544
0.5991
0.5709
0.5538
0.5422
0.5422
0.5338
0.5275
0.5225
0.5184
0.5150
0.4977
0.4899
0.4848
0.4808

0.060000
0.070000
0.080000
0.090000
0.100000
0.200000
0.300000
0.400000
0.500000
0.600000
0.700000
0.800000
0.900000
1.000000

0.4659
0.4643
0.4627
0.4609
0.4590
0.4395
0.4207
0.4034
0.3874
0.3726
0.3589
0.3461
0.3343
0.3232

0.0619
0.0623
0.0626
0.0629
0.0632
0.0656
0.0669
0.0675
0.0677
0.0674
0.0669
0.0663
0.0655
0.0646

0.4773
0.4742
0.4713
0.4686
0.4659
0.4430
0.4231
0.4051
0.3888
0.3737
0.3599
0.3470
0.3351
0.3239

Standardized Ridge Regression Coeffi cients Section


0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0

k
Z1

Z2

Z3

Va ria nce Infl a t ion Fa ct or Sect ion


500
450
400
350
300
250
200
150
100
50
0

k
Z1

Z2

Z3

Dari berbagai harga c yang ada, nlai VIF mulai tampak ada
penurunan pada c sebesar 0.03. Harga c yang memberikan VIF
relatif dekat dengan 1, yaitu pada c=0.03 ini menunjukkan
bahwa pada c=0,03 koefisien

lebih stabil. Dengan demikian

persamaan regresi Ridge yang diperoleh jika c yang diambil


sebesar 0.03 yaitu:
^y baru = 0.4674Z1 + 0.0608Z2 + 0.4899Z3

4. Pengujian hipotesis
Ho :

= 0 (Variabel bebas secara simultan

tidak signifikan di dalam model)


H1 :

(Variabel bebas secara simultan signifikan di

dalam model)

= 0,05
ANOVAa

Model
1
Regressi
on

Sum of
Squares
.973

df
3

Mean
Square
F
.324 167.48
2

Sig.
.000b

Residual
.027
14
Total
1.000
17
a. Dependent Variable: Yr
b. Predictors: (Constant), Z3, Z2, Z1

.002

Ftabel=3.34
Karena Fhitung> Ftabel maka tolak Ho
Maka

dengan

tingkat

kepercayaan

sebesar

95

dapat

disimpulkan bahwa variabel bebas secara simultan signifikan di


dalam model
5. Tranformasi ke bentuk awal
bi=

Sy R
b
S xi i

( )
b1 =
b2=

S y R 12,5082
b =
0,4674=0.0920
S x 1 1 63,5167

( ) (
( ) (
( ) (

b3 =

S y R 12,5082
b =
0,0608=0.4367
Sx 2 2
1,7414

S y R 12,5082
b =
0,4899=0.1474
S x3 3 41,5811

3
b0 =Y b 1 X 1 b2 X 2b 3 X

=30.0944 (0.0920 x 237.517) (0.4367 x 3.6778) (0.1474


x 167.378)
=-18.0348
Sehingga model yang diperoleh adalah
Y^ = -18.0348 + 0.0920 X1 + 0.4367 X2 + 0.1474 X3