Anda di halaman 1dari 21

MAKALAH

DALAM JURNAL YANG BERJUDUL : “MODEL REGRESI RIDGE


UNTUK MENGATASI MODEL REGRESI LINIER BERGANDA YANG
MENGANDUNG MULTIKOLINIERITAS”
(Studi Kasus: Data Pertumbuhan Bayi di Kelurahan Namaelo RT 001, Kota
Masohi, Maluku Tengah)
Disusun Guna Memenuhi Tugas Ekonometrika
Dosen Pengampu Safaat Yulianto S.Si, M.Si

Oleh :
Haviva Inayah (202001671)

PROGRAM STUDI D3 STATISTIKA


INSTITUT TEKNOLOGI STASTISTIKA DAN BISNIS
MUHAMMADIYAH SEMARANG
2022
KATA PENGANTAR

Puji dan syukur senantiasa penulis panjatkan kepada Tuhan Yang Maha Esa
atas ridha dan rahmat-Nya sehingga penulis dapat menyelesaikan makalah yang
berjudul Model Regresi Ridge Untuk Mengatasi Model Regresi Linear
Berganda yang Mengandung Multikolinearitas. Tidak lupa penulis
mengucapkan terima kasih kepada Bapak Safaat Yulianto S.Si, M.Si selaku dosen
pengampu mata kuliah Ekonometrika yang telah memberikan tugas kepada penulis.

Penulis menyadari bahwa masih ada kekurangan dan kesalahan dalam


makalah yang disusun. Oleh karena itu penulis mohon maaf atas kesalahan tersebut.
Kritik dan saran dari pembaca senantiasa ditunggu oleh penulis guna meningkatkan
kualitas tulisan ke depannya.

Akhir kata, semoga makalah yang disusun ini dapat menambah wawasan
bagi pembaca secara umum dan penulis secara khusus. Semoga dari makalah ini
dapat memberikan manfaat bagi penulis lain.

Semarang, 10 Mei 2022

Penulis
DAFTAR ISI

KATA PENGANTAR ........................................................................................ 2


DAFTAR ISI ...................................................................................................... 3
BAB I .................................................................................................................. 4
PENDAHULUAN .............................................................................................. 4
1.1 Latar Belakang....................................................................................... 4
1.2 Rumusan Masalah.................................................................................. 5
1.3 Tujuan ................................................................................................... 5
BAB II ................................................................................................................ 6
PEMBAHASAN ................................................................................................. 6
2.1 Multikolinearitas ........................................................................................ 6
2.2 Penyebab Terjadinya Multikolinearitas ....................................................... 6
2.3 Regresi Ridge ............................................................................................. 7
2.4 Penanganan Multikolinearitas dengan Regresi Ridge .................................. 9
BAB III ............................................................................................................. 20
PENUTUP ........................................................................................................ 20
3.1 Kesimpulan .............................................................................................. 20
DAFTAR PUSTAKA ....................................................................................... 21
BAB I

PENDAHULUAN

1.1 Latar Belakang


Analisis regresi adalah suatu analisis yang dilakukan terhadap dua variabel
yaitu variabel independen (prediktor) dan variabel dependen (respon) untuk
mengetahui apakah ada pengaruh variabel prediktor terhadap variabel respon
sehingga variabel respon dapat diduga berdasarkan variabel prediktornya.
Berdasarkan jumlah variabel independennya, analisis regresi linier dibagi
menjadi dua macam yaitu, analisis regresi linier sederhana dan analisis regresi
linier ganda. Pada, analisis regresi linier sederhana, jumlah variabel independen
yang digunakan sebagai penduga variabel dependen adalah satu.

Regresi sendiri memiliki sejarah dan terus dikembangkan. Serangkaian


studi yang dikembangkan oleh para statistisi berhasil menunjukkan bahwa
dalam banyak kasus, regresi menggunakan teknik kuadrat terkecil (khususnya
teknik Ordinary Least Square/OLS) sering memberikan hasil yang kurang
tepat. Oleh sebab itu,banyak bermunculan teknik “Regresi Modern”, yaitu
regresi yang digunakan pada kondisi dimana asumsi-asumsi klasik tidak
terpenuhi. Ada beberapa asumsi klasik salah satunya yaitu tidak terjadi
multikolinieritas.

Multikolinieritas dapat menyebabkan analisis regresi menggunakan metode


kuadrat terkecil kurang valid. Cara menangani penyimpangan asumsi ini adalah
dengan menggunakan analisis Regresi Ridge. Metode Regresi Ridge
merupakan penyelesaian yang paling baik, karena mengingat tujuan Regresi
Ridge adalah untuk memperkecil variansi estimator koefisien regresi.
Berdasarkan latar belakang inilah peneliti memberi judul “Model Regresi
Ridge untuk Mengatasi Model Regresi Linier Berganda yang Mengandung
Multikolinieritas (Studi Kasus : Data Pertumbuhan Bayi pada Kelurahan
Namaelo RT 001, Kota Masohi, Maluku Tengah)”.
1.2 Rumusan Masalah
Rumusan masalah yang ada pada penelitian ini adalah :

 Apa itu multikolinearitas ?


 Apa penyebab terjadinya Multikolinearitas ?
 Ap itu Regresi Ridge ?
 Bagaimana cara mengatasi Multikolinearitas dengan menggunakan
metode regresi Ridge ?

1.3 Tujuan
Tujuan dari penelitian ini adalah sebagai berikut :

 Mengetahui desinisi multikolinearitas.


 Mengetahui penyebab terjadinya Multikolinearitas.
 Mengatahui definisi Regresi Ridge.
 Mengetahui cara mengatasi multikolinearitas dengan menggunakan
metode Regresi Ridge.
BAB II

PEMBAHASAN

2.1 Multikolinearitas
Istilah Multikolinieritas pertama kali diperkenalkan oleh Ragnar Frisch
pada tahun 1934, yang menyatakan Multikolinieritas terjadi jika adanya hubungan
linier yang sempurna atau pasti diantara beberapa atau semua peubah bebas dari
model Regresi Berganda (Rahardiantoro, 2008). Jadi dalam Regresi Linier
Berganda Multikolinieritas merupakan masalah yang sering terjadi dua atau lebih
variabel bebas saling berkorelasi satu sama lain. Jika korelasi antara dua atau lebih
variabel bebas dalam suatu persamaan regresi linier berganda ini terjadi maka
taksiran koefisien dari peubah yang bersangkutan tidak lagi tunggal melainkan tidak
terhingga banyaknya sehingga tidak mungkin lagi menduganya, hal ini disebabkan
𝑋𝑋𝑇 (Sembiring, 1995).

Menurut Montgomery dan Hines (1990) dalam Rahardiantoro (2008),


Multikolinieritas dapat menyebabkan koefisien Regresi yang dihasilkan oleh
Analisis Regresi berganda menjadi sangat lemah atau tidak dapat menghasilkan
hasil analisis yang mewakili sifat atau pengaruh dari peubah bebas yang
bersangkutan. Hal ini disebabkan oleh penduga yang dihasilkan oleh metode
kuadrat terkecil tidak lagi bersifat BLUE (Best Linear Unbiased Estimator).

Multikolinieritas yakni situasi dimana terdapat korelasi atau hubungan linier


antara variabel-variabel bebas diantara satu dengan yang lainnya sehingga variabel-
variabel bebas tersebut tidak bersifat orthogonal. Variabel-variabel bebas yang
bersifat orthogonal adalah variabel bebas yang memiliki nilai korelasi diantara
sesamanya sama dengan nol.

2.2 Penyebab Terjadinya Multikolinearitas


Hal-hal utama yang sering menyebabkan terjadinya Multikolinieritas pada
model regresi antara lain :
 Kesalahan teoritis dalam pembentukan model fungsi regresi yang
dipergunakan.
 Terlampau kecilnya jumlah pengamatan yang akan dianalisis dengan model
regresi.
Jika terjadi multikolinieritas sempurna maka koefisien regresi dari variabel X tidak
dapat ditentukan dan standard errornya tak berhingga. Jika terjadi Multikolinieritas
kurang sempurna maka akan timbul akibat sebagai berikut:
 Meskipun koefisien regresi dari variabel X dapat ditentukan tetapi nilai
standard errornya akan cenderung membesar sehingga tingkat kolinieritas
antara variabel bebas juga meningkat.
 Nilai standard error dari koefisien regresi besar maka interval keyakinan
untuk parameter dari populasi juga cenderung melebar.
 Tingginya tingkat kolinieritas, probabilitas untuk menerima hipotesis,
padahal hipotesis itu salah menjadi membesar nilainya.
 Bila multikolinieritas tinggi, akan memperoleh nilai 𝑅2 yang tinggi tetapi
tidak ada atau sedikit sekali koefisien regresi yang signifikan secara
statistik.

2.3 Regresi Ridge


Regresi Ridge dapat digunakan untuk mengatasi korelasi yang tinggi antara
beberapa variabel bebas. Multikolinieritas yang terdapat dalam regresi linier
berganda yang mengakibatkan matriks 𝑋𝑇𝑋-nya hampir singular yang pada
gilirannya menghasilkan nilai estimasi parameter yang tidak stabil. Regresi Ridge
merupakan metode estimasi koefisien regresi yang diperoleh melalui penambahan
konstanta bias c pada diagonal 𝑋𝑇𝑋. Nilai c untuk koefisien regresi ridge diantara 0
hingga 1.

Dalam bentuknya yang sederhana adalah sebagai berikut :


𝛽̂ R = WXt Y
W = (Xt X)-1
𝛽̂ (𝑐) = (𝑋t𝑋+𝑐I)-1 𝑋𝑇𝑌
= (Xt X + cI)-1(Xt X)(Xt X)-1 Xt X
= (Xt X + cI)-1 (Xt X) 𝛽̂
= W (Xt X) 𝛽̂
Umumnya sifat dari penafsiran ridge ini memiliki variansi yang minimum
sehingga diperoleh nilai VIF-nya yang merupakan diagonal utama dari matriks
(𝑋𝑇𝑋+𝑐𝐼)−1𝑋𝑇𝑋(𝑋𝑇𝑋+𝑐𝐼)−1
Pada dasarnya Regresi Ridge merupakan metode kuadrat terkecil.
Perbedaannya adalah bahwa pada metode regresi ridge, nilai variabel bebasnya
ditransformasikan dahulu melalui prosedur centering dan rescaling.
Dalam Regresi Ridge ini ada istilah Ridge Trace yang berarti plot dari
estimator regresi ridge secara bersama dengan berbagai kemungkinan tetapan bias
𝑐, konstanta 𝑐 mencerminkan jumlah bias dalam estimator 𝛽̌ (𝑐). Bila 𝑐 = 0 maka
estimator 𝛽̌ (𝑐) sama dengan kuadrat terkecil 𝛽, tetapi cenderung lebih stabil.
Suatu acuan yang biasa digunakan untuk memilih besarnya 𝑐 adalah dengan
melihat VIF dan melihat pola kecenderungan Ridge Trace. Bila terdapat korelasi
yang tinggi antara variabel bebas, maka nilai VIF akan besar. VIF mamiliki nilai
mendekati 1 jika variabel bebas 𝑋 tidak saling berkorelasi dengan variabel bebas
lainnya.

1. Langkah Pengujian Hipotesis Regresi Ridge


Pengujian untuk uji keberartian regresi sebagai berikut :
1. Menentukan uji Hipotesis
𝐻0:𝛽1=𝛽2=𝛽3=⋯=𝛽𝑘=0
(tidak ada hubungan linier antara variabel-variabel bebas dengan
variabel terikat )
𝐻1:∃𝛽𝑗≠0,𝑗=1,2,3,…,𝑘
(ada hubungan linear antara variabel-variabel bebas dengan
variabel terikat)
2. Menentukan tingkat signifikansi (𝛼)
3. Kriteria pengambilan keputusan untuk 𝐹ℎ𝑖𝑡𝑢𝑛𝑔.
Terima 𝐻0 jika 𝐹ℎ𝑖𝑡𝑢𝑛𝑔≤𝐹𝑡𝑎𝑏𝑒𝑙 dan Tolak 𝐻0 jika
𝐹ℎ𝑖𝑡𝑢𝑛𝑔>𝐹𝑡𝑎𝑏𝑒𝑙.
𝐽𝐾𝑅/𝑘
Dengan 𝐹ℎ𝑖𝑡𝑢𝑛𝑔=JKR(n−k−1)

Untuk mengetahui koefisien yang diperoleh berarti atau tidak.


Dilakukan pengujian sebagai berikut :
Hipotesis
𝐻0∶ 𝛽𝑖=0 (koefisien regresi tidak signifikan )
𝐻0∶ 𝛽𝑖≠0 (koefisien regresi signifikan )
1. Menentukan tingkat signifikansi (𝛼)
2. Uji Statistik yang digunakan, dalam hal ini uji statistik yang
digunakan adalah uji-t
𝑏𝑖
𝑡 =𝑆
𝑏𝑖

𝑏𝑖 = Koefisien regresi variabel -i


Sbi = Standar error variabel –𝑖
3. Kriteria Keputusan
𝑎
𝐻0 diterima jika |tℎ𝑖𝑡𝑢𝑛𝑔| ≤ 𝑡 ( ,𝑛−𝑘−1)
2
𝑎
𝐻0 ditolak jika |tℎ𝑖𝑡𝑢𝑛𝑔| > 𝑡 (2 ,𝑛−𝑘−1)

2.4 Penanganan Multikolinearitas dengan Regresi Ridge


Penelitian ini menggunakan data pertumbuhan bayi di Kelurahan Namaleo
RT 001 Kota Masohi, Maluku Tengah. Bayi merupakan anak-anak kecil yang
berusia 0-1 tahun. Pertumbuhan bayi pun menjadi pusat perhatian para orang tua.
Pertumbuhan seorang bayi dipengaruhi oleh berbagai macam aspek. Tinggi seorang
bayi pun menjadi perhatian yang sangat penting bagi orang tua. Tinggi bayi juga
dipengaruhi oleh beberapa faktor-faktor misalnya berat bayi waktu lahir, usia bayi
dan lain-lain.

Dan yang akan peneliti teliti yaitu Tinggi bayi sekarang (Y) yang
dipengaruhi oleh Usia Bayi (X1), Tinggi bayi waktu lahir (X2), Berat bayi waktu
lahir (X3), dan Ukuran dada bayi waktu lahir. Untuk mendapatkan Data
Pertumbuhan Bayi dengan faktor-faktor yang mempengaruhi seperti yang telah
dipaparkan peneliti. Peneliti melakukan Penelitian pada Posyandu Binaya.
Posyandu Binaya merupakan salah satu Posyandu yang bertugas untuk melihat
perkembangan Bayi pada kota Masohi terkhusus pada Kelurahan Namaelo RT 001.
Data yang peneliti peroleh dapat terlihat pada Tabel berikut ini.

No Y X1 X2 X3 X4
1 62,0 216,0 51,0 2,7 19,0
2 50,0 104,0 50,0 3,1 16,0
3 61,0 106,0 51,0 2,4 21,0
4 60,0 147,0 52,0 2,0 26,0
5 60,0 71,0 52,0 2,3 23,0
6 63,0 144,0 49,0 2,2 22,0
7 58,0 73,0 50,0 2,3 22,0
8 63,0 235,0 50,0 2,1 24,0
9 55,0 23,0 51,0 3,2 16,0
10 56,0 92,0 50,0 2,9 17,0
11 56,0 53,0 51,0 3,0 17,0
12 67,0 85,0 52,0 2,6 20,0
13 59,0 100,0 48,0 2,4 20,0
14 55,0 80,0 48,0 3,0 16,0
15 55,0 80,0 48,0 3,0 16,0
16 64,0 133,0 51,0 2,4 21,0
17 60,0 140,0 52,0 2,6 20,0
18 62,0 141,0 51,0 2,3 22,0
19 68,0 233,0 50,0 2,3 22,0
20 60,0 167,0 48,0 2,3 21,0

Keterangan :
𝑌 = Tinggi bayi sekarang (cm)
𝑋1 = Usia Bayi (hari)
𝑋2 = Tinggi bayi waktu lahir (cm)
𝑋3 = Berat bayi waktu lahir (kg)
𝑋4 = Ukuran dada bayi waktu lahir (cm)

Berikut ini adalah Langkah-langkah penanganan menggunakan studi kasus


pertumbuhan bayi.
a. Menghitung Koefisien Korelasi

Correlations

Y X1 X2 X3 X4

Y Pearson Correlation 1 .596** .293 -.741** .660**

Sig. (2-tailed) .006 .209 .000 .002

N 20 20 20 20 20

X1 Pearson Correlation .596** 1 -.029 -.561* .526*

Sig. (2-tailed) .006 .902 .010 .017

N 20 20 20 20 20

X2 Pearson Correlation .293 -.029 1 -.224 .328

Sig. (2-tailed) .209 .902 .342 .158

N 20 20 20 20 20

X3 Pearson Correlation -.741** -.561* -.224 1 -.971**

Sig. (2-tailed) .000 .010 .342 .000

N 20 20 20 20 20

X4 Pearson Correlation .660** .526* .328 -.971** 1

Sig. (2-tailed) .002 .017 .158 .000

N 20 20 20 20 20

**. Correlation is significant at the 0.01 level (2-tailed).

*. Correlation is significant at the 0.05 level (2-tailed).

Berdasarkan tabel diatas terlihat bahwa hubungan antar variabel dependen


dan independent ada yang berkorelasi atau memiliki hubungan dan ada
juga yang tidak. Data dianggap berkorelasi apabila nilai Signifikan < nilai
alfa (0,05). Hasil yang didapat adalah :
X1 > 0,05 yang artinya tidak berkorelasi
X2 > 0,05 yang artinya tidak berkorelasi
X3 < 0,05 yang artinya berkorelasi
X4 < 0,05 yang artinya berkorelasi

b. Selanjutnya dilakukan pengujian parameter secara simultan atau yang


lebih dikenal dengan uji statistik F. Hasil perhitungan menggunakan
SPSS seperti tabel dibawah ini.

ANOVAb

Model Sum of Squares df Mean Square F Sig.

1 Regression 274.539 4 68.635 11.232 .000a

Residual 91.661 15 6.111

Total 366.200 19

a. Predictors: (Constant), X4, X2, X1, X3

b. Dependent Variable: Y

H0 = Tidak ada pengaruh variable independen terhadap variable dependen


secara simultan.

H1 = Ada pengaruh variable independen terhadap variable dependen


secara simultan
Nilai F tabel dengan df1 = 4 , df2 = 15 dengan taraf signifikansi =
5% adalah 3,06Daerah Kritis : H0 ditolak jika Fhitung > Ftabel
Kesimpulan :
Dengan menggunakan tingkat signifikansi sebesar 0.05 dapat diputuskan
H0 ditolak, artinya model regresi signifikan sehingga dapat disimpulkan
bahwa variabel-variabel prediktor secara simultan signifikan terhadap
variabel respon.
c. Selanjutnya yaitu dilakukan pengujian secara parsial atau uji statistik t.
H0 = koefisien regresi ke-k tidak signifikan atau variabel bebas ke-k
tidak berpengaruhnyata terhadap y.
H1 = koefisien regresi ke-k signifikan atau variabel bebas ke-k
berpengaruh nyata terhadap y.
Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 112.662 34.534 3.262 .005

X1 .023 .012 .305 1.917 .075

X2 1.173 .476 .376 2.466 .026

X3 -25.394 7.293 -2.094 -3.482 .003

X4 -2.483 .918 -1.656 -2.705 .016

a. Dependent Variable: Y

Nilai T tabel dengan df = 16 dan alpha = 0,05 adalah 2,120


Daerah Kritis : H0 ditolak jika t hitung > t tabel
Keputusan :

Variabel T hitung Kesimpulan

Konstanta 2,498 Signifikan


X1
1,850 Tidak Signifikan

X2 2,690 Signifikan

X3 -2,583 Signifikan

X4 -2,149 Signifikan

Berdasarkan tingkat
signifikansisebesar 5%
disimpulkan bahwa variabel
prediktor yang tidak
signifikan yaitu X1.
d. Persamaan regresi yang terbentuk

Y = 112.662 + 0.023X1 + 1.173X2 – 25.894X3 – 2.483X4


e. Pendeteksian Multikolinearitas
Mendeteksi multikolinieritas pada variabel X dapat digunakan dengan
melihat nilai VIF dan nilai tolerance. Apabila nilai VIF dari variabel-
variabel bebasnya lebih dari 10 dan nilai tolerance dari variabel-variabel
bebasnya mendekati 0 maka terdapat multikolinearitas pada variabel-
variabel bebasnya dan perlu penanganan lebih. Berdasarkan studi kasus
yang digunakan pada penelitian ini variabel yang terdapat gejala
multikolinearitas adalah sebagai berikut :

Coefficientsa

Collinearity Statistics

Model Tolerance VIF

1 X1 .660 1.515

X2 .716 1.397

X3 .046 21.667

X4 .044 22.473

a. Dependent Variable: Y

Terlihat bahwa nilai VIF dari 𝑋3 = 21,667 dan 𝑋4 = 22,473. karena nilai
VIF dari 𝑋3 dan 𝑋4 lebih dari 10 dan juga nilai tolerance dari 𝑋3 = 0,46 dan
𝑋4 = 0,044 karena nilai tolerance mendekati 0 maka dapat disimpulkan
bahwa adanya multikolinieritas antara variabel bebasnya. Jadi variabel yang
terdeteksi adanya multikolinearitas dan memerlukan penanganan khusus
dengan regresi ridge adalah varaibel X3 dan X4.

f. Untuk menghilangkan kondisi buruk yang tidak menguntungkan yang


diakibatkan olehadanya Multikolinieritas dalam data yang dianalisis dan
juga untuk memudahkan kerjadalam proses pendeteksian maupun dalam
penanganan multikolinieritas maka dilakukan proses pemusatan dan
penskalaan terhadap data atau variable. Sebelumnya akan dilakukan
pengujian terhadap data yang ada. Apakah data berdistribusi normal.

Dari output, dapat terlihat bahwa nilai Kolmogoro-Smirnov Z sebesar


0,639 dan AsympSig sebesar 0,808 lebih besar dari Nilai signifikan yang
dipilih yaitu 0,05 maka dapat disimpulkan bahwa data berdistribusi
normal. Karena data yang diperoleh berdistribusi normal maka tidak
perlu dilakukan pentransformasian terhadap data.

g. Penentuan nilai tetapan bias dengan nilai VIF


Tabel Nilai VIF β(c) dengan berbagai nilai c
Nilai c VIFβ1 ( c ) VIFβ2 ( c ) VIFβ3 ( c ) VIFβ4 ( c )
0 1,5067 2,8943 45,8313 49,3863
0,001 1,4995 2,5838 38,213 41,1557
0,002 1,4927 2,3449 32,3633 34,8361
0,003 1,4862 2,1569 27,7743 29,8785
0,004 1,48 2,0062 24,108 25,9178
0,005 1,474 1,8835 21,1326 22,7037
0,006 1,4682 1,782 18,6848 20,0595
0,007 1,4625 1,6972 16,6468 17,858
0,008 1,4569 1,6255 14,9319 16,0057
0,009 1,4514 1,5641 13,4752 14,4323
0,01 1,446 1,5113 12,2274 13,0846
0,02 1,3949 1,2252 5,7369 6,0768
0,03 1,3474 1,109 3,424 3,5822
0,04 1,3028 1,0432 2,3393 2,4145

Berikut plot VIF nya :

Dalam proses pengestimasian regresi ridge, pemilihan tetapan bias 𝑐


merupakan hal yang paling penting dalam penelitian ini, penentuan tetapan
bias 𝑐 ditempuh melalui pendekatannilai VIF dan gambar Ridge Trace. Nilai
dari VIF 𝛽(̂ 𝑐) dengan berbagai kemungkinan tetapan bias 𝑐 dapat dilihat
pada Tabel

Pada tabel menunjukkan bahwa 0,000 ≤ 𝑐 ≤ 1,000 dengan berbagai nilai VIF-
nya dan dapat terlihat bahwa semakin besar nilai 𝑐, semakin kecil nilai VIF
koefisien estimator 𝛽̂(𝑐). Berdasarkan Gambar Plot VIF terlihat bahwa
setiap nilai VIF semakin mengalami penurunan. VIF dari setiap koefisien
𝛽̂(𝑐) mengalami penurunan menuju 0.

Pada saat 𝑐 = 0,2 nilai VIF mendekati 1 dari 0. Nilai VIF 𝛽̂ 1 (𝑐) = 0,8223,
VIF 𝛽̂ 2 (𝑐) =0,7015, VIF 𝛽̂ 3 (𝑐) = 0,3977, VIF 𝛽̂ 4 (𝑐) = 0,3607.

h. Penentuan nilai c (tetapan bias)


Tabel Nilai 𝛽̂(𝑐) dengan berbagai nilai c
Nilai c β1( c ) β2 (c ) β3( c ) β4 (c )
0 0,3282 0,6613 -2,5268 -2,1828
0,001 0,331 0,6201 -2,3231 -1,971
0,002 0,3333 0,5856 -2,1522 -1,7933
0,003 0,3352 0,5561 -2,0069 -1,6422
0,004 0,3368 0,5307 -1,8818 -1,5121
0,005 0,3381 0,5086 -1,7729 -1,3989
0,006 0,3392 0,4892 -1,6774 -1,2995
0,007 0,3401 0,472 -1,5928 -1,2116
0,008 0,3409 0,4566 -1,5174 -1,1332
0,009 0,3416 0,4428 -1,4498 -1,0629
0,01 0,3422 0,4303 -1,3889 -0,9995
0,02 0,3445 0,35 -1 -0,5949
0,03 0,3439 0,3085 -0,8039 -0,3907
0,04 0,3422 0,2828 -0,6857 -0,2676
0,05 0,3399 0,2649 -0,6066 -0,1853
0,05 0,3399 0,2649 -0,6066 -0,1853
0,06 0,3375 0,2517 -0,5501 -0,1264
0,07 0,3349 0,2414 -0,5076 -0,0822
0,08 0,3322 0,233 -0,4746 -0,0479
0,09 0,3295 0,2259 -0,4481 -0,0205
0,1 0,3269 0,2199 -0,4264 0,0019
0,2 0,3023 0,1847 -0,3218 0,1068
0,3 0,282 0,1657 -0,2825 0,141
0,4 0,265 0,1522 -0,2602 0,1559
0,5 0,2505 0,1417 -0,2449 0,1628
0,6 0,238 0,1331 -0,233 0,1657
0,7 0,2269 0,1258 -0,2233 0,1664
0,8 0,217 0,1194 -0,2148 0,1657
0,9 0,2082 0,1138 -0,2073 0,1643
1 0,2001 0,1088 -0,2006 0,1623

Tabel diatas menunjukkan berbagai koefisien estimator parameter 𝛽̂(𝑐)


dengan berbagai nilai 𝑐. Berdasarkan tabel dapat terlihat bahwa semakin
besar nilai 𝑐, koefisienregresi ridge dari variabel bebas 𝑋1 ,𝑋2 semakin
kecil sedangkan koefisien regresi ridge dari variabel bebas 𝑋3 , 𝑋4
semakin besar . Dari Tabel dapat membuat sebuah Ridge Trace seperti
pada Gambar dibawah. Dari Gambar, terlihat bahwa koefisien 𝛽 lebih
stabil pada saat 𝑐 = 0,2. Dengan demikian persamaan Regresi Ridge yang
dihasilkan dari 𝑐 = 0,2 yaitu
Y* = 0,3023Z1* + 0,1847Z2* – 0,3218Z3* + 0,1608Z4

i. Transformasi ke bentuk awal persamaan


Y* = 0,3023Z1* + 0,1847Z2* – 0,3218Z3* + 0,1608Z4*
𝑆𝑦 4,39018
𝛽1 = 𝑆1 𝛽 1* = (0,3023) = 0,022818
58,16336
𝑆𝑦 4,39018
𝛽2 = 𝑆2 𝛽 2* = 1,409554 (0,1847) = 0,575265
𝑆𝑦 4,39018
𝛽3 = 𝑆3 𝛽 3* = (-0,3218) = -2,82552
0,5
𝑆𝑦 4,39018
𝛽4 = 𝑆4 𝛽 4* = 2,928535 (0,1608) = 0,241056

𝛽0 = y̅ - 𝛽1x̅1- 𝛽2x̅2 - 𝛽3x̅3 - 𝛽4x̅4

=59,7 – (0,022818)(121,15) – (0,575265)(50,25) – (2,82552)(2,75)


– (0,241056)(20,05) = 30,96561
Sehingga model yang diperoleh adalah adalah :
Y = 30,96561 + 0,022818X1 + 0,575265X2 – 2,82552X3 – 0,241056X4

Dari persamaan regresi diatas dapat diartikan bahwa variabel


bebas 𝑋1 , 𝑋2 , 𝑋4 yang memiliki koefisien regresi yang positif
menunjukkan bahwa antara 𝑋1 , 𝑋2 , 𝑋4 dengan variabel terikat 𝑌 berjalan
satu arah, dimana setiap penurunan atau peningkatan variabel bebas
𝑋1 , 𝑋2 , 𝑋4 akan diikuti dengan penurunan atau peningkatan variabel
terikat 𝑌.
Sedangkan variabel bebas 𝑋3 yang memiliki koefisien regresi
negatif menunjukkan bahwa antara 𝑋3 berjalan dua arah dimana setiap
peningkatan pada variabel bebas 𝑋3akan diikuti dengan penurunan
variabel terikatnya dan setiap penurunan pada variabel bebas 𝑋3 akan
diikuti denganpeningkatan variabel terikat 𝑌.
BAB III

PENUTUP

3.1 Kesimpulan

Dari pembahasan diatas disimpulkan bahwa :


a. Persamaan regresi yang diperoleh dengan menggunakan kuadrat terkecil
mengandung multikolinieritas. Sehingga diterapkan Metode Regresi Ridge
untuk memperoleh persamaan regresi yang baru dan tidak mengandung
multikolinieritas.dan persamaan regresi yang baru yaitu

Y = 30,96561 + 0,022818X1 + 0,575265X2 – 2,82552X3 – 0,241056X4

b. Berdasarkan data bayi yang peneliti teliti, usia bayi sangat berpengaruh
secara signifikan terhadap tinggi bayi sekarang, sedangkan tinggi bayi
waktu lahir, berat bayi waktu lahir dan ukuran dada bayi waktu lahir tidak
berpengaruh secara signifikan terhadap tinggi bayi sekarang.
DAFTAR PUSTAKA

1. Ali, R. G. (2019). Penerapan Metode Regresi Ridge Dalam Mengatasi


Masalah Multikolinieritas Pada Kasus Indeks Pembangunan Manusia Di
Indonesia Pada Tahun2017. Prosiding Sendika, 239-248.

2. Ohyver, M. (2011). Metode Regresi Ridge Untuk Mengatasi Kasus


Multikolinier.
Jurnal Ilmu Matematika Comtech, 451- 457.

3. Wasilaine, T. L. (2014). Model Regresi Ridge Untuk Mengatasi Model


Regresi Linier Berganda. Jurnal Barekeng, 31-37.

4. Miftahul J. 2015. Pemilihan Tetapan Bias Regresi Ridge Untuk


Mengatasi Multikolinier. Skripsi. Tidak Diterbitkan. Fakultas
Matematika dan Ilmu Pengetahuan Alam. Universitas Ahmad Dahlan
Yogyakarta.
5. Agriska P. 2011. Penggunaan Metode Ridge Trace dan Variance
Inflation Factors (VIF) pada Regresi Ridge. Skripsi. Tidak
Diterbitkan. Fakultas Matematika dan Ilmu Pengetahuan Alam.
Universitas Negeri Yogyakarta.

Anda mungkin juga menyukai