Anda di halaman 1dari 24

BAB 2

LANDASAN TEORI

2.1.

Regresi

2.1.1. Pengertian Persamaan Regresi


Persamaan regresi adalah persamaan matematik yang memungkinkan kita
meramalkan nilai-nilai suatu peubah tak bebas dari nilai-nilai satu atau lebih
peubah bebas (Walpole, 1995, p340 ).

2.1.2. Pengertian Regresi Linier dan Regresi Non Linier


Secara umum, regresi adalah suatu metode untuk meramalkan nilai
harapan yang bersyarat. Regresi dikatakan linear apabila hubungan antara peubah
bebas dan peubah tak bebas adalah linear, sedangkan apabila hubungan antara
peubah bebas dan peubah tak bebas tidak linear, maka regresi dikatakan regresi
non linear. Hubungan antara peubah bebas dan peubah tak bebas dapat dikatakan
linear apabila diagram pencar data dari peubah-peubah tersebut mendekati pola
garis lurus.

2.1.3. Regresi Linier Sederhana


2.1.3.1.Pengertian Regresi Linier Sederhana
Regresi Linear Sederhana adalah suatu persamaan regresi di mana peubah
bebasnya berbentuk skalar.

2
2.1.3.2.Persamaan Regresi Linier Sederhana
Model Regresi Linear Sederhana dapat dinyatakan dalam persamaan :
Yi 0 1 X i

(2.1)

Keterangan
Yi

: nilai peubah tak bebas pada percobaan ke-i

0, 1 : koefisien regresi
Xi

: nilai

peubah bebas pada percobaan ke - i

: error

dengan mean E{i}=0 dan varians {i}=

, i & j tidak berkorelasi.


i

: 1,,n

2.1.3.3.Pendugaan Koefisien Regresi


Metode kuadrat terkecil adalah suatu metode untuk menghitung koefisien
regresi sampel (b0 & b1) sebagai penduga koefisien regresi populasi (0 & 1),
sedemikian rupa sehingga jumlah kesalahan kuadrat memiliki nilai terkecil.
Dengan bahasa matematik, dapat dinyatakan sebagai berikut :
Model sebenarnya

Yi = 0 + 1Xi + i

Model perkiraan

i = b0 + b1Xi

Kesalahan error i

ei = Yi (b0 + b1Xi)

Jumlah kesalahan kuadrat :

ei = [Yi ( b0+ b1Xi)]

Jadi metode kuadrat terkecil adalah metode menghitung b0 dan b1 sedemikian


2

rupa sehingga ei minimum. Caranya adalah dengan membuat turunan parsial

ei mula-mula terhadap b0 kemudian terhadap b1 dan menyamakannya dengan


nol, sehingga kita dapat memperoleh rumus :
b0 y b1 x

b
1

n XiYi Xi Yi

nXi 2 ( Xi) 2

(2.2.)

(2.3)

2.1.4. Regresi Linier Berganda


2.1.4.1.Pengertian Regresi Linier Berganda
Regresi Linear Berganda adalah regresi yang mempunyai hubungan antara
satu peubah tidak bebas Y dengan beberapa peubah lain yang bebas X1, X2,... ,Xk.

2.1.4.2.Persamaan Regresi Linier Berganda


Untuk meramalkan Y, apabila semua nilai peubah bebas diketahui,
dipergunakan model persamaan regresi linear berganda. Hubungan Y dan X1, X2,...
,Xk

yang sebenarnya adalah sebagai berikut :


Yi 0 1 Xi1 2 Xi2 ... k Xi k
i

(2.4)

Keterangan :
0, 1, 2, k

: parameter / koefisien yang akan ditaksir

: nilai peubah gangguan yang berkaitan dengan pengamatan ke-i

: 1, 2, 3, ..., n

Apabila b0, b1, b2, .... bk adalah penduga atas 0, 1, 2, .... k maka persamaan
penaksir yang sebenarnya adalah :
Yi b0 b1 Xi
b2 Xi
... kb Xi

1
2
k
ei

(2.5)

Apabila dinyatakan dalam bentuk persamaan matriks, sebagai berikut :


Y X

(2.6)

Keterangan :
Y, ,

: vector

: matriks x

2.1.5. Pendugaan Koefisien Regresi Berganda


Koefisien harus diestimasi berdasarkan data hasil penelitian sampel
acak. Prosedur estimasi tergantung mengenai variabel X dan kesalahan
pengganggu . Beberapa asumsi yang penting adalah sebagai berikut :
1.

Nilai harapan setiap kesalahan pengganggu sama dengan nol E(i) = 0


untuk semua i.

2.

Kesalahan pengganggu yang satu tidak berkorelasi terhadap kesalahan


pengganggu lainnya E(ij) = 0 untuk i j, akan tetapi mempunyai
2

varians yang sama E(i ) = untuk semua i.


3.

X1, X2,... ,Xk merupakan bilangan riil, tanpa mengandung kesalahan.

4.

Matriks X mempunyai rank k < n. Banyaknya observasi n harus lebih


banyak dari banyaknya peubah, atau lebih banyak dari koefisien regresi
parsial yang akan diestimasi.

Apabila asumsi di atas dapat dipenuhi, maka penggunaan metode kuadrat


terkecil akan menghasilkan Best Linear Unbiased Estimator terhadap koefisien .
Dengan menggunakan metode kuadrat terkecil maka b0 dan b1 merupakan
penduga tidak bias dan mempunyai varians minimum diantara semua penduga
linear tak bias. Berikut adalah rumusan penduga koefisien b :
Misalkan b sebagai penduga :
Y = Xb + e
e = Y - Xb
ei = Yi - b1Xi1 - b2Xi2 - ... bkXik
Maka jumlah pangkat dua simpangan yang harus diminimumkan :
2

ei = ( Yi - b1Xi1 - b2Xi2 - ... - bkXik)

Estimasi vektor dengan menggunakan metode kuadrat terkecil, ialah


vektor b sedemikian rupa sehingga jumlah kuadrat kesalahan pengganggu :
e T e ei 2 min

(2.7)

Caranya ialah dengan menurunkan penurunan parsial ei terhadap setiap


komponen vektor b dan menyamakannya dengan 0.
2

ei / b1 = 2 ( Yi - - b1Xi1 - b2Xi2 - ... bkXik ) (-X1i) = 0


2

ei / b2 = 2 ( Yi - - b1Xi1 - b2Xi2 - ... bkXik ) (-X2i) = 0

ei / bk = 2 ( Yi - - b1Xi1 - b2Xi2 - ... bkXik ) (-Xki) = 0

(2.8)

Persamaan tersebut dapat disederhanakan menjadi :


b1Xi1

+ b2Xi1Xi2 + ... + bkXi1Xik = Xi1Yi


2

b2 Xi2Xi1 + b2Xi1

.bk

+ + bkXi2Xik = Xi2Yi

XikXi1 + b2XikXi2 + ... + bkXik

= XikYi

(2.9)

Apabila dinyatakan di dalam bentuk matriks, persamaan normal di atas


akan menjadi :
T

(2.10)

X Xb X Y
Dengan demikian b sebagai penduga dapat diperoleh melalui rumus :
T

(2.11)

b ( X X ) 1 X T Y

2.1.6. Koefisien Korelasi


Koefisien

korelasi

merupakan

suatu

ukuran

kuantitatif

yang

menggambarkan kekuatan hubungan linear di antara 2 variabel. Koefisien korelasi


(r) mempunyai nilai di antara 1.0 dan +1.0. Suatu korelasi yang mempunyai nilai
+1.0 menunjukkan hubungan linear yang sempurna. Dan apabila nilai korelasi
adalah 0 berarti kedua peubah tidak mempunyai hubungan linear.

Berikut adalah rumus untuk menghitung korelasi antara peubah bebas dan
peubah tak bebas :

( x x)( y y)
( x x) 2 ( y y)

(2.12)

Sedangkan untuk menghitung korelasi di antara dua peubah bebas


menggunakan rumus :
n

( x

1i

i 1

x1 )( x 2i x 2 )

i 1

i 1

( x1i x1 )2 ( x2i x 2 )

(2.13)

2.1.7. Koefisien Determinasi


Koefisien determinasi adalah ukuran variasi total pada peubah tak bebas
yang dapat dijelaskan oleh hubungannya dengan peubah bebas. Koefisien
2

determinasi juga disebut sebagai R . Nilai dari R antara 0 dan 1.0. Apabila
terdapat suatu hubungan linear yang sempurna di antara dua peubah maka
koefisien determinasi akan bernilai 1.0 ( di mana garis regresi kuadrat terkecil
2

akan melalui setiap titik pada scatter plot ). R sering digunakan sebagai ukuran
untuk mengindikasikan seberapa baik garis regresi linear terhadap data. Semakin
2

baik maka R akan mendekati nilai +1.0 dan apabila terdapat hubungan linear
2

yang lemah maka R akan mendekati 0.

Untuk menghitung koefisien determinasi digunakan rumus sebagai


berikut:
2

SSR
TSS

(2.14)

SSE ( Sum of Squares Error ) menunjukkan jumlah total kuadrat peubah


tak bebas yang tidak dijelaskan oleh garis regresi kuadrat terkecil. Sedangkan
SSR ( Sum of Squares Regression ) merupakan jumlah total kuadrat yang dapat
dijelaskan oleh garis regresi. Dan TSS ( Total Sum of Squares ) merupakan
jumlah dari SSE dan SSR.
SSR ( y y)
2

(2.16)

TSS ( y y)

SSE ( y y
)

(2.15)

(2.17)

(2.18)

TSS SSE SSR


Setelah menghitung koefisien determinasi, maka kita akan dapat
mengetahui seberapa besar variasi peubah tak bebas yang dapat dijelaskan oleh
model regresi.

2.1.8. Masalah Regresi Linier Berganda


Di dalam regresi linier berganda dapat terjadi beberapa keadaan yang
dapat menyebabkan estimasi koefisien regresi dengan menggunakan metode
kuadrat terkecil tidak lagi menjadi penduga koefisien tak bias terbaik. Beberapa

masalah / kondisi yang dapat terjadi pada regresi linier berganda adalah sebagai
berikut :

2.1.8.1.Otokorelasi
Di dalam suatu model regresi, dianggap bahwa kesalahan pengganggu i
,di mana i = 1,2,3,,n merupakan variabel acak yang bebas. Dengan kata lain
bahwa kesalahan observasi yang berikutnya diperoleh secara bebas terhadap
kesalahan sebelumnya. Artinya E(i,i+r ) = 0, untuk semua i dan semua r 0.
Apabila asumsi tersebut tidak berlaku, maka akan terdapat banyak
kesukaran di dalam analisis ekonomi. Jika terjadi suatu otokorelasi, maka apabila
metode kuadrat terkecil diterapkan untuk memperkirakan parameter / koefisien
regresi, maka penduga penduga yang dihasilkan bukan lagi penduga tak bias yang
terbaik. Selain itu, apabila terjadi otokorelasi di antara kesalahan pengganggu
maka pengujian nyata berdasarkan statistik uji t dan F sebetulnya tidak berlaku
lagi.
Solusi untuk masalah otokorelasi adalah data asli harus ditransformasikan
terlebih dahulu untuk menghilangkan otokorelasi di antara kesalahan pengganggu
tersebut. Untuk menguji ada tidaknya otokorelasi dapat menggunakan Statistik d
Durbin-Watson (The Durbin-Watson d Statistics).
Statistik d Durbin-Watson adalah sebagai berikut :
n

(e
i 2

ei 1 )2

e
i 2

(2.19)

Keterangan :
d

: statistik d Durbin dan Watson

ei

: residu ( kesalahan penggangu)

Durbin dan Watson

sudah membuat tabel yang disebut Statistik d Durbin-

Watson pada tingkat nyata 5% dan 1%. Di dalam tabel, dimuat nilai batas atas
(du) dan nilai batas bawah (d1) untuk berbagai nilai n dan k (banyaknya variable
bebas). Statistik d Durbin-Watson tersebut digunakan untuk menguji hipotesis :
Ho

: tak ada korelasi serial (otokorelasi) yang positif

H1

: ada korelasi serial ( otokorelasi) yang positif

2.1.8.2.Heterokedastisitas
Apabila matriks ragam (variance) kesalahan adalah sebagai berikut :

(2.20)

Dan apabila beberapa elemen pada diagonal utama tidak sama dengan satu
(Vii1), maka kesalahan pengganggu tersebut disebut heteroskedastis. Dengan
kata lain kesalahan

pengganggu merupakan

variabel bebas, tetapi kesalahan

pengganggu tersebut mempunyai varians yang berbeda untuk setiap nilai X yang
berbeda, di mana X merupakan variabel bebas.
Cara untuk mengatasi masalah heterokedastisitas adalah mengubah matrik
kovarian menjadi matrik yang memenuhi homokedastisitas Untuk mendapatkan

penduga b dengan metode kuadrat terkecil, mula-mula kita cari matrik T


sedemikian rupa sehingga :
T

E (T T )
In

(2.21)

Matrik T adalah sebagai berikut :

T=

1/x1

1/x2

1/xn

Jika Y = XB + kalikan dengan T, maka diperoleh TY =TXB + T . Kemudian


dapat kita peroleh rumus b sebagai penduga B dengan metode kuadrat terkecil
adalah sebagai berikut :

b* ( X T

1
T
T TX ) X T TY

(2.22)

2.1.8.3.Multikolinieritas
Multikolinieritas adalah masalah yang timbul pada regresi linier apabila
terdapat suatu hubungan atau ketergantungan linier di antara beberapa
semua

atau

dari peubah-peubah bebas. Jika peubah-peubah bebas tersebut saling

berkorelasi, maka akan sangat sulit untuk memisahkan pengaruh mereka masingmasing terhadap peubah tak bebas dan untuk mendapatkan penaksir yang baik
bagi koefisien-koefisien regresi. Masalah multikolinieritas sering terjadi pada
bidang economy, agriculture, chemometrics, sociology.

Masalah multikolinieritas seperti ini mungkin juga terdapat dalam analisis


regresi sederhana. Masalah kolinieritas

yang sempurna pada regresi linear

sederhana terjadi jika nilai Xi yang diamati itu sama dengan X rata-rata.
Apabila kita mempunyai persamaan hubungan linear sebagai berikut :
Yi = 0 + 1Xi 1 + 2Xi 2 + i
Secara ekstrim, ada kemungkinan terjadi

2 peubah bebas atau lebih yang

mempunyai hubungan yang sangat kuat sehingga pengaruh masing-masing


peubah tersebut terhadap Y sukar untuk dibedakan.
Dari persamaan diatas peubah X1

dan X2

mempunyai hubungan

sedemikian rupa sehingga X2i = kX1i, dimana k adalah bilangan konstan. Untuk
memperkirakan 0, 1, 2, kita harus menggunakan data hasil observasi sebanyak
n, untuk variabel X1 dan X2 sebagai berikut :
X1
X2
Y

X11
X21
Y1

X12
X22
Y2

X1n
X2n
Yn

Dalam hal ini, metode kuadrat terkecil tidak dapat menghasilkan penduga
b0, b1, b2,, bk dengan variansi kecil, karena r(XX)= 2<k, dimana r = rank
T

matriks, sehingga det (X X) = 0. Karena det (X X) = 0, maka penduga b = (X X)


XY tidak dapat dicari.
Perhatikan uraian berikut :

X X=

X1i

X2i

X1i

X1i2

X1iX2i

X2i

X2iX1i X2i

karena X2i = kX1i, maka

-1

X X=

X1i

X1i

X1i

kX1i

kX1i

kX1i2

k2X1i2

kX1i
2

Berdasarkan teori matriks, nilai determinan suatu matriks tidak berubah kalau
suatu kolom/ baris dikalikan dengan suatu bilangan konstan, kemudian
baris/kolom lain dikurangi dengan baris/kolom tersebut. Dalam hal ini, Jika
matrik korelasi yang kita peroleh dikalikan baris 2 dengan k kemudian baris 3
dikurangi dengan baris 2, maka kita memperoleh matrik sebagai berikut :

X X=

X1i

X1i

X1i

kX1i

kX1i
2

Menurut teori matriks, apabila semua elemen dari suatu

baris / kolom

matriks tersebut bernilai nol maka determinan yang bersangkutan adalah nol.
T

Oleh karena itu det(X X) = 0 maka X X adalah matrik singular dan karena (X X)

-1

tidak ada, maka metode kuadrat terkecil tidak dapat digunakan untuk menduga b0,
b1, b2,, bk .
Nilai eigenvalues 1 2 1 dari matriks XX juga dapat digunakan
sebagai indikasi multikolinieritas. Apabila nilai 1 terkecil adalah 0 berarti matriks
adalah singular dan data merupakan data multikolinier.
Akibat dari multikolinieritas adalah :
a.

Apabila hubungan tersebut sempurna, maka koefisien regresi parsial tak


akan dapat diestimasi.

b.

Apabila hubungan tersebut tidak sempurna, maka koefisien regresi parsial


masih dapat diestimasi, tetapi kesalahan baku

dari penduga koefisien

regresi parsial sangat besar. Hal ini menyebabkan

pendugaan/ramalan

nilai Y dengan menggunakan X1 dan X2 kurang teliti.


Cara menghadapi masalah multikolinieritas antara lain :
a.

Menggunakan a priori extraneous information


Metode ini dilakukan dengan menggantikan variabel-variabel
bebas yang saling berkorelasi ke variabel baru. Namun penggunaan a
priori extraneous information sangat bergantung pada beberapa hal
misalnya jenis informasi yang ada, tujuan analisis, dan daya kaya khayal/
imajinasi peneliti karena tidak ada aturan yang tetap untuk hal tersebut.

b.

Melakukan transformasi bentuk linier ke bentuk tak linier (model regresi


polinomial).

c.

Menggunakan model Ridge Regression


Metode tersebut dilakukan dengan cara mengembangkan metode
kuadrat terkecil yang biasa dengan menambahkan parameter k untuk
menentukan penaksir bias.

2.2.

Variance Inflation Factor


Salah satu cara sederhana untuk mendeteksi multikolinieritas adalah
mengamati apakah korelasi antara peubah bebas X cukup besar. Cara lain yang
lebih peka dan lebih formal untuk mendeteksi adanya multikolinieritas adalah
variance

inflation

factor

yang

biasa

disingkat

VIF. VIF digunakan untuk mengukur seberapa besar perubahan varians koefisien
apabila peubah bebas tidak saling berkorelasi.
Elemen diagonal (VIF)k disebut variance inflation factor untuk bk. Dapat
dibuktikan bahwa variance inflation factor sama dengan :

(VIF ) k

1
1 Rk

(2.23)

Keterangan :
k
Rk

= 1, 2, 3, , k
2

= koefisien determinasi berganda bila Xk diregresikan terhadap p-1 peubah


X yang lain dalam model regresi tersebut.
2

(VIF)k =1 bila Rk = 0, yaitu bila Xk tidak berkorelasi dengan peubah X


2

yang lain. Apabila Rk > 0, maka (VIF)k <1 yang menunjukkan adanya antar
2

korelasi di antara peubah X. Jika peubah X saling berkorelasi sempura maka Rk =


1 dan (VIF)k = ~.

2.3.

Ridge Regression
Pada teorema umum, teorema Gauss-Markov akan menghasilkan penduga
tidak bias yang mempunyai varians minimum. Teorema estimasi Gauss-Markov
bagus digunakan apabila XX adalah matriks unit dan apabila XX bukan matriks
unit, maka penggunaan teorema ini akan mengakibatkan beberapa kesulitan.
Menurut RE. Walpole dan R.H. Myers (1985), dengan adanya multikolinieritas,
penggunaan teorema Gauss-Markov dapat mengakibatkan penduga koefisien

regresi sangat tidak stabil dan sensitif terhadap perubahan data selain itu dapat
menyebabkan perbedaan penduga koefisien j di mana j = 1, 2, .., p untuk data
sampel yang berbeda cenderung besar. Oleh karena itu diperlukan suatu metode
penaksiran alternatif yang

memberi hasil

penaksiran lebih

baik

yang

menghasilkan penduga koefisien regresi yang bias tetapi cenderung mempunyai


ketepatan yang lebih baik daripada teorema Gauss-Markov.
Prosedur ridge regression diusulkan pertama kali oleh A.E. Hoerl pada
tahun 1962 dan dibahas secara mendalam dalam dua tulisan Hoerl dan Kennard.
Prosedur tersebut ditujukan untuk mengatasi situasi multikolinieritas dan kolom
matriks dari X tidak bebas linier yang menyebabkan matriks XX hampir singular.
Pada metode ridge regression, penduga koefisien regresi yang dihasilkan
adalah penduga bias. Penaksiran metode alternatif tidak sebaik metode kuadrat
terkecil karena jumlah kuadrat residual tidak terlalu kecil dan koefisien korelasi
ganda tidak terlalu besar tetapi lebih berpotensial untuk ketepatan yang lebih baik.

2.3.1. Standarized Regression Model


Untuk pengukuran dampak dari multikolinieritas akan lebih mudah bila
kita menggunakan model regresi yang dibakukan (standardized regression
model).
Apabila semua peubah ditransformasi oleh transformasi korelasi, maka
bentuk persamaan regresi sebagai berikut :
Yi' ' 0 '1 X ' i1 ' 2 X ' i2 ... ' k X ' i k
i

(2.24)

Transformasi korelasi untuk peubah yang dibakukan adalah :

x '

ik
n1

y ik '

( k = 1, , k )

x x
ik

sk

(2.25)

yi y
sy

n 1

(2.26)

di mana :

x
sk

sy

xk

( k = 1, , k )

ik

(2.27)

n1

n1

(2.28)

Hubungan antara model regresi yang dibakukan dengan model regresi


semula adalah sebagai berikut :

k (

sy
) '
k sk

0 Y 1 X 1 2 X 2 ... k X
k

(2.29)

(2.30)

Bentuk matriks XX untuk model regresi yang dibakukan adalah matriks


korelasi antara peubah X yang mempunyai elemen semua pasangan korelasi
peubah X :

X ' X R

xx
kxk

1 r12 .......r1, p 1

r 1..........r
21
2,k

... .............

r
k ,1 rk , 2 ......1

(2.31)


Bentuk matriks korelasi antara peubah Y dengan setiap peubah X :

X 'Y R

yx
kx1

ry1
r

y2

ry 3

...

ry ,k

(2.32)

Dan persamaan di atas maka diperoleh persamaan regresi yang dibakukan


yaitu :
XX b = XY
(Rxx) b = Ryx
b (Rxx ) 1 R yx
b1'
b2'

b b3'
kx1
...

bk

(2.33)

(2.34)

Penduga regresi ridge diperoleh dengan menambahkan ke dalam


persamaan normal metode kuadrat terkecil suatu konstan yang bias k 0 dalam
bentuk sebagai berikut :
(R xx kI )bR R yx

(2.35)

Di mana I adalah matrks identitas k x k. Solusi terhadap persamaan memberikan


koefisien regresi ridge yang dibakukan :

(Rxx kI ) 1 Ryx

(2.36)

Konstanta k merupakan besarnya bias dari penduga. Bila k = 0, persamaan akan


menjadi persamaan koefisien regresi biasa. Bila k > 0, koefisien regresi ridge
bersifat bias tetapi cenderung lebih stabil.

2.3.2. Keakuratan Ridge Regression


Untuk mengukur keakuratan ridge regression dapat diketahui dari ratarata kuadrat residualnya (mean squared error). Taksiran ridge regression
cenderung mempunyai rata-rata kuadrat residual yang lebih kecil daripada
taksiran kuadrat terkecil.
Dua fungsi yang umum diaplikasikan

untuk mengukur kedekatan

penduga b dengan parameter yang tidak diketahui didefinisikan sebagai berikut:


1.

mean squared estimation error


M 1(b )

E(b ) (b ) E(bi i )2
T

i 1

(2.37)

2.

mean squared prediction error


p

M 2 (b) E(b )T X T X (b ) i E(ci i )2


i 1

(2.38)

Di mana :

1 2 ... p eig( XT X )

(2.39)
(2.40)

cQ b

Q
T

(2.41)

(2.42)

T
T
Q X XQ diag (1 , 2 ., , ,. p
)

Telah dibuktikan oleh Hoerl and Kennard (1970a) bahwa:


2
2 2
p
(k ) M 1
2 k i ) /(i k )

( * (k )) ( i
f M1

(2.43)

i 1

p
2
2
f M 2 (k ) M 2 ( * (k )) i (i2 k i ) /(i k )

(2.44)

y X 2 /(n p)

(2.45)

i 1

di mana
2

Dengan mengganti i dan 2 dengan i dan 2 maka diperoleh


persamaan baru yaitu :
p
2
) /(i k )2
fM 1(k ) (i2 k i
2

i 1

(2.46)

f M 2 (k ) i
(i

k 2 2 ) /(i k )2

(2.47)

i 1

di mana :
2
y X

/(n p)

(2.48)
(2.49)

T
Q

2.3.3. Ridge Trace


Cara yang biasa dilakukan untuk menentukan konstanta k adalah
berdasarkan ridge trace. Ridge trace adalah plot dari p nilai dugaan koefisien
R

regresi yang dibakukan bk dan nilai k yang berbeda-beda antara 0 dan 1. Pilih
R

nilai k terkecil dan koefisien regresi bk menjadi stabil pertama kali pada ridge
trace plot. Berikut adalah contoh Ridge Trace :

Gambar 2.1. Contoh Ridge Trace

2.4.

Metode Newton Rhapson


Untuk menentukan nilai parameter ridge regression k yang optimum dapat
dilakukan dengan cara meminimumkan fungsi mean squared estimation error
(2.51) dan mean squared prediction error (2.52). Untuk meminimumkan fungsi
tersebut dapat dilakukan dengan algoritma yang berdasarkan metode NewtonRhapson. Metode Newton-Rhapson adalah suatu metode yang terkenal dan sangat
handal untuk menemukan akar dari persamaan f ( x) 0 . Metode Newton dapat
diturunkan dari Taylors series :
1
2
f(x )(xx )f'(x ) (xx ) f''(x )
f ( x)
...1
1
1
1
1
2!

(2.50)

Metode Newton-Raphson adalah metode yang berdasarkan ide bahwa f(x)


pada x=b dapat dihitung apabila nilai dari f(a), f(a), dan f(a) diketahui. Apabila
x=x0 maka kita dapat menghitung x=x1 :
f(x1) = f(x0) + f'(x0)(x1- x0)
Jika x1=0 maka
0= f(x0) + f '(x0)(x1- x0)
x1= x0-(f(x0)/f(x0))
Atau secara umum persamaan Newton Rhapson adalah :

x n1

x n ( f ( x n) / f ' ( x n ))

(2.51)

Iterasi berulang sehingga


abs((x n 1 x n ) / x n ) e

(2.52)

Di mana e adalah suatu angka yang bernilai kecil misalnya 0.0001


2.5.

R Language
R

Language

merupakan

implementasi

dari

Language

yang

dikembangkan oleh Bell Laboratories oleh Rick Becker, John Chambers dan
Allan Wilks. R Language adalah suatu paket software yang mempunyai fasilitas
untuk manipulasi data, kalkulasi dan tampilan grafik. Paket software tersebut
sangat cocok digunakan pada lingkungan windowing systems seperti Unix,
Macintosh, dan lain-lain. R Language telah banyak dikembangkan untuk analisis
data interaktif ke dalam paket-paket yang dapat diperoleh secara cuma-cuma.
Bahasa pemrograman ini merupakan high level language sehingga cukup mudah
untuk dipahami dan dipelajari.
2.6.

Penelitian Relevan
Perancangan Program Aplikasi Peramalan Biaya Pemasaran dengan
Model Regresi Ridge (Studi Kasus: PD. Daichi Mas) merupakan penelitian yang
telah dilakukan oleh Chandra Suyanto, mahasiswa Universitas Bina Nusantara
(2005). Penelitian ini dilakukan untuk memprediksi biaya pemasaran sebelum
dilakukan proses pemasaran berdasarkan volume penjualan dan biaya ekspedisi
dan pembungkusan.