Anda di halaman 1dari 32

PEMILIHAN MODEL REGRESI LINEAR BERGANDA TERBAIK PADA

KASUS MULTIKOLINEARITAS BERDASARKAN REGRESI RIDGE

DAN REGRESI KOMPONEN UTAMA

OLEH:

ST. AYNUN NURUL AISA

F1A1 16 075

PROGRAM STUDI MATEMATIKA

JURUSAN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS HALU OLEO

KENDARI

2019
ABSTRAK

Pekerjaan ini diarahkan untuk mendeteksi dan memecahkan masalah

multikolinearitas dalam analisis regresi. Dengan demikian, Variance Inflation

Factor (VIF) dan Indeks Kondisi (CI) digunakan sebagai ukuran deteksi tersebut.

Ridge Regresi (RR) dan Principal Component Regression (PCR) adalah dua

pendekatan lain yang digunakan dalam pemodelan selain dari regresi linier

sederhana konvensional. Untuk tujuan membandingkan dua metode, data simulasi

digunakan. Tugas kita adalah memastikan keefektifan masing-masing metode

berdasarkan kesalahan kuadrat masing-masing. Dari hasil, kami menemukan

bahwa metode Ridge Regression (RR) lebih baik daripada Principal Component

Regression (PCR) ketika multikolinieritas ada di antara para prediktor.


ABSTRACT

This work is geared towards detecting and solving the problem of

multicoli- nearity in regression analysis. As such, Variance Inflation Factor

(VIF) and the Condition Index (CI) were used as measures of such detection.

Ridge Re- gression (RR) and the Principal Component Regression (PCR) were

the two other approaches used in modeling apart from the conventional simple

linear regression. For the purpose of comparing the two methods, simulated

data were used. Our task is to ascertain the effectiveness of each of the

methods based on their respective mean square errors. From the result, we

found that Ridge Regression (RR) method is better than principal component

regression when multicollinearity exists among the predictors.


BAB I

PENDAHULUAN

1.1 Latar Belakang

Analisis regresi adalah suatu metode statistik yang mengamati hubungan

antara variabel terikat 𝑌 dan variabel bebas 𝑋 (Hijriani, 2016). Hubungan antara

dua variabel (variabel bebas 𝑋 dan variabel tak bebas 𝑌) dalam suatu system yang

kompleks tidak cukup dinyatakan dalam suatu persamaan regresi sederhana.

Dalam situasi yang demikian, suatu variabel tak bebas atau variabel respon dapat

dipengaruhi oleh lebih dari satu variabel bebas. Apabila persamaan regresi

memuat lebih dari satu variabel bebas, model regresinya disebut model regresi

ganda. Seperti halnya metode statistika lainnya, model regresi ganda mempunyai

beberapa asumsi, di antaranya galat 𝜀𝑖 saling bebas dan berdistribusi normal

𝑁(0, 𝜎 2 ) serta tidak terjadi multikolinear (Supranto,1986).

Multikolinieritas menyebabkan estimator mempunyai varian yang besar

akibatnya interval estimasi cenderung lebih besar sehingga membuat variabel

bebas secara statistika tidak signifikan padahal nilai koefisien determinasi 𝑅 2

tinggi sehingga sulit mendapatkan estimasi yang tepat (Widarjono, 2007). Oleh

karena itu perlu dilakukan tindakan lanjutan untuk menangani multikolinearitas.

Multikolinieritas dapat diatasi dengan beberapa metode diantaranya

regresi komponen utama dan regresi ridge (Montgomery dan Peck, 1991). Regresi

komponen utama merupakan metode ang menggabungkan antara regresi linear

dengan analisis komponen utama. Regresi komponen utama membentuk


hubungan antara variabel terikat dengan komponen utama yang dipilih dari

variabel bebas (Ul-Saufie et al. 2011). Sedangkan regresi ridge memberikan

estimasi koefisien regresi yang bias dengan memodifikasi metode kuadrat

terkecil untuk mendapatkan pengurangan varian dengan menambahkan suatu

tetapan k dalam menstabilkan koefisien (Mardikyan dan Cetin. 2008).

Berdasarkan uraian di atas, penulis mengangkat judul untuk penelitian ini, yaitu

“pemilihan model regresi linear berganda terbaik pada kasus multikolinearitas

berdasarkan regresi ridge dan regresi komponen utama”.

1.2 Rumusan Masalah

Berdasarkan latar belakang di atas, diperoleh rumusan masalah yang akan

menjadi fokus penelitian ini adalah:

1. Bagaimana estimasi yang diperoleh dengan menggunakan model regresi ridge

dan regresi komponen utama?

2. Metode manakah antara regresi komponen utama dan regresi ridge yang cocok

untuk mencari model terbaik pada kasus multikolinearitas?

1.3 Tujuan Penelitian

Berdasarkan rumusan masalah di atas, diperoleh tujuan yang akan menjadi

fokus penelitian ini adalah:

1. Untuk mengetahui estimasi yang diperoleh dengan menggunakan metode

regresi ridge dan regresi komponen utama

2. Untuk mengetahui model regresi terbaik antara model regresi komponen utama

dan regresi ridge.


1.4 Manfaat Penelitian

Berdasarkan tujuan di atas, diperoleh tujuan yang akan menjadi fokus

penelitian ini adalah:

1. Bagi Universitas Haluoleo

Hasil penelitian ini diharapkan bisa dijadikan tambahan informasi dan referensi

serta dapat memberikan sumbangan pemikiran dalam bidang Matematika di

Jurusan Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam

Universitas Haluoleo dan khususnya bagi mahasiswa/mahasiswi di Universitas

Haluoleo.

2. Bagi Penulis

Dari hasil penelitian ini diharapkan dapat menambah wawasan/ilmu

pengetahuan bagi penulis.

3. Bagi Peneliti Selanjutnya

Dari hasil penelitian ini diharapkan dapat berguna sebagai referensi yang

bermanfaat dan dapat menjadi kajian yang lebih mendalam untuk para peneliti

lainnya.
BAB II

TINJAUAN PUSTAKA

2.1 Regresi Linear

Dalam beberapa masalah terdapat dua atau lebih variabel yang

hubungannya tidak dapat dipisahkan, dan hal tersebut biasanya diselidiki sifat

hubungannya. Analisis regresi adalah sebuah teknik statistik untuk membuat

model dan menyelidiki hubungan antara dua variabel atau lebih. Salah satu tujuan

dari analisis regresi adalah menentukan model regresi yang baik, sehingga dapat

digunakan untuk menerangkan dan memprediksi hal-hal yang berhubungan

dengan variabel-variabel yang terlibat di dalam model (Widianingsih, 2008: 15).

Analisis regresi merupakan alat analisis statistik yang berguna untuk

mengetahui pengaruh variabel bebas terhadap variabel terikatnya. Pengaruh ini

diwujudkan dari besarnya nilai pengaruh dalam bentuk persentase (%) (Ariyanto,

2005: 32). Berdasarkan jumlah variabel bebasnya, analisis regresi dibagi menjadi

dua, yaitu regresi linear sederhana dan regresi linear berganda.

2.1.1 Regresi Linear Sederhana

Bentuk paling sederhana dari model regresi sering disebut dengan regresi

linier sederhana yaitu hubungan antara satu variabel tak bebas dengan satu

variabel bebas. Bentuk hubungannya dapat dilihat dalam persamaan berikut:

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1 + 𝜀𝑖 ; 𝑖 = 1,2, … , 𝑛 (2.1)

Persamaan diatas menyatakan bahwa rata-rata dari Y berkaitan linier dengan 𝑋, 𝛽0

dan 𝛽1 adalah parameter yang akan diduga nilainya dan 𝜀 adalah gangguan
(disturbance) yang akan ikut mempengaruhi nilai 𝑌, tetapi diabaikan dalam

model.

Dalam persoalan penelitian yang menggunakan analisis regresi pada

umumnya memerlukan lebih dari satu variabel bebas dalam regresinya. Oleh

karena itu, model sederhana tidak bisa dipakai, sehingga diperlukan model regresi

yang mempunyai lebih dari satu variabel bebas yang disebut model regresi linier

berganda (Widianingsih, 2008: 15).

2.1.2 Regresi Linear Berganda

Regresi linier berganda adalah analisis regresi yang menjelaskan hubungan

antara variabel terikat dengan faktor-faktor yang menjelaskan yang

mempengaruhi lebih dari satu variabel bebas. Tujuan analisis regresi linier

berganda adalah untuk memuat prediksi/perkiraan nilai 𝑌 atas 𝑋. Bentuk

persamaan linier berganda adalah sebagai berikut:

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝜀𝑖 (2.2)

Dengan:

𝑌𝑖 : Variabel terikat

𝑋𝑖 : Variabel bebas

𝛽0 , … , 𝛽𝑘 : parameter regresi

𝜀𝑖 : error variabel

Model ini menggambarkan sebuah bidang banyak dalam ruang k pada

tingkat variabel – variabel bebas (𝑋𝑖 ) (Duila, 2015).


2.2 Metode Kuadrat Terkecil

Metode kuadrat terkecil (Ordinary Least Square, OLS) merupakan salah

satu metode untuk mengestimasi parameter pada regresi linear. Tujuan metode

kuadrat terkecil adalah meminimumkan jumlah kuadrat dari kesalahan (error sum

of square). Misalkan model yang akan diestimasi adalah parameter dari

persamaan:

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝜀𝑖 (2.3)

Penjabaran dari persamaan adalah:

𝑌1 = 𝛽0 + 𝛽1 𝑋11 + ⋯ + 𝛽𝑘 𝑋𝑘1 + 𝜀1

𝑌2 = 𝛽0 + 𝛽1 𝑋12 + ⋯ + 𝛽𝑘 𝑋𝑘2 + 𝜀2

𝑌𝑛 = 𝛽0 + 𝛽1 𝑋1𝑛 + ⋯ + 𝛽𝑘 𝑋𝑘𝑛 + 𝜀𝑛

Persamaan – persamaan di atas dapat ditulis dengan menggunakan persamaan

matriks, yaitu:

𝑌 = 𝑋𝛽 + 𝜀 (2.4)

Dengan

𝑌1 1 𝑋11 𝑋11 … 𝑋11 𝛽1 𝜀1


𝑌2 1 𝑋11 𝑋11 … 𝑋11 𝛽2 𝜀2
𝑌=[ ] 𝑋=[ ] 𝛽=[ ] 𝜀=[⋮]
⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮
𝑌𝑛 1 𝑋11 𝑋11 … 𝑋11 𝛽𝑛 𝜀𝑛

Untuk mendapatkan penaksir – penaksir OLS bagi 𝛽, maka dengan asumsi klasik

ditentukan dua vektor (𝛽̂ 𝑑𝑎𝑛 𝑒) sebagai:

𝛽̂0 𝑒1
̂ 𝑒2
𝛽̂ = 𝛽1 𝑒=[⋮]

[𝛽̂𝑘 ] 𝑒𝑛
Persamaan hasil estimasi dari persamaannya dapat ditulis sebagai:

𝑌 = 𝑋𝛽̂ + 𝑒 (2.5)

Atau

𝑒 = 𝑌 − 𝑋𝛽̂ (2.6)

Karena tujuan OLS adalah meminumumkan jumlah kuadrat dari kesalahan, maka:

∑𝑘𝑖=1 𝑒𝑖2 = 𝑚𝑖𝑛𝑖𝑚𝑢𝑚 (2.7)

maka:

∑ 𝑒𝑖2 = 𝑒12 + 𝑒22 + ⋯ + 𝑒𝑘2


𝑖=1

𝑒1
= [𝑒1 𝑒2 … 𝑒𝑘 ] [𝑒2 ]

𝑒𝑘

= 𝑒𝑇𝑒

sehingga:

∑ 𝑒𝑖2 = 𝑒 𝑇 𝑒
𝑖=1

= (𝑌 − 𝑋𝛽̂ )𝑇 (𝑌 − 𝑋𝛽̂ )

= 𝑌 𝑇 𝑌 − 𝛽̂ 𝑇 𝑋 𝑇 𝑌 − 𝑌 𝑇 𝑋𝛽̂ + 𝛽̂ 𝑇 𝑋 𝑇 𝑋𝛽̂

karena 𝛽̂ 𝑇 𝑋 𝑇 𝑌 merupakan skalar maka matriks transposenya adalah:

𝑇
(𝛽̂ 𝑇 𝑋 𝑇 𝑌) = 𝑌 𝑇 𝑋𝛽̂

sehingga:

𝑒 𝑇 𝑒 = 𝑌 𝑇 𝑌 − 𝑌 𝑇 𝑋𝛽̂ − 𝑌 𝑇 𝑋𝛽̂ + 𝛽̂ 𝑇 𝑋 𝑇 𝑋𝛽̂


𝑒 𝑇 𝑒 = 𝑌 𝑇 𝑌 − 2𝛽̂ 𝑇 𝑋 𝑇 𝑌 + 𝛽̂ 𝑇 𝑋 𝑇 𝑋𝛽̂

Untuk menaksir parameter 𝛽̂ maka 𝑒 𝑇 𝑒 harus diminumkan terhadap 𝛽̂ 𝑇 , maka:

∑ 𝑒𝑖2 = 𝑌 𝑇 𝑌 − 2𝛽̂ 𝑇 𝑋 𝑇 𝑌 + 𝛽̂ 𝑇 𝑋 𝑇 𝑋𝛽̂


𝑖=1

𝑘
𝜕
(∑ 𝑒𝑖2 ) = 𝑌 𝑇 𝑌 − 2𝛽̂ 𝑇 𝑋 𝑇 𝑌 + 𝛽̂ 𝑇 𝑋 𝑇 𝑋𝛽̂ = 0
𝜕𝛽̂ 𝑇
𝑖=1

= −2𝑋 𝑇 𝑌 + 2𝑋 𝑇 𝑋𝛽̂ = 0

atau

𝑋 𝑇 𝑌 = 𝑋 𝑇 𝑋𝛽̂

𝛽̂ = (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝑌 (2.8)

dengan 𝑋 𝑇 𝑋 ≠ 0 (Duila, 2015).

2.3 Sifat Estimator Kuadrat Terkecil

Metode kuadrat terkecil memiliki suatu estimator yang mempunyai sifat –

sifat yang sangat baik yang menjadikan metode estimasi ini sangat popular

dikalangan para peneliti. Sifat – sifat tersebut antara lain adalah sebagai berikut:

1. Linear

𝛽̂ = (𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑌

𝛽̂ = (𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 (𝑋𝛽 + 𝜀)

𝛽̂ = (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝑋𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀)

𝛽̂ = 𝐼𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀)

𝛽̂ = 𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀) (2.9)

Karena (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝑋𝛽 = 𝐼, dari persamaan di atas menunjukkan bahwa 𝛽̂

adalah fungsi linear dari 𝛽 dan 𝜀.


2. Tak Bias

𝐸(𝛽̂ ) = 𝛽

𝐸(𝛽̂ ) = 𝐸[(𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝑌]

𝐸(𝛽̂ ) = 𝐸[(𝑋 𝑇 𝑋)−1 𝑋 𝑇 (𝑋𝛽 + 𝜀)]

𝐸(𝛽̂ ) = 𝐸[(𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝑋𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀]

𝐸(𝛽̂ ) = 𝐸[𝐼𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀]

𝐸(𝛽̂ ) = 𝛽 + 𝐸[(𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀]

𝐸(𝛽̂ ) = 𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝐸[𝜀]

𝐸(𝛽̂ ) = 𝛽 + 0

𝐸(𝛽̂ ) = 𝛽 (2.10)

Karena 𝐸[𝜀] = 0 dan (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝑋 = 𝐼

3. Kovarian (𝛽̂ ) = (𝑋 𝑇 𝑋)−1 𝜎 2

𝑐𝑜𝑣(𝛽̂ ) = 𝐸{[𝛽̂ − 𝐸(𝛽̂ )][𝛽̂ − 𝐸(𝛽̂ )]𝑇 }

𝑐𝑜𝑣(𝛽̂ ) = 𝐸{[𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀 − 𝛽][𝛽 + (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀 − 𝛽]𝑇 }

𝑐𝑜𝑣(𝛽̂ ) = 𝐸{[(𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀][(𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀]𝑇 }

𝑐𝑜𝑣(𝛽̂ ) = 𝐸{(𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝜀𝜀 𝑇 𝑋(𝑋 𝑇 𝑋)−1 }

𝑐𝑜𝑣(𝛽̂ ) = (𝑋 𝑇 𝑋)−1 𝑋 𝑇 𝑋(𝑋 𝑇 𝑋)−1 𝐸(𝜀 𝑇 𝜀)

𝑐𝑜𝑣(𝛽̂ ) = (𝑋 𝑇 𝑋)−1 𝐸(𝜀 𝑇 𝜀)

𝑐𝑜𝑣(𝛽̂ ) = (𝑋 𝑇 𝑋)−1 𝜎 2 (2.11)

Karena 𝑋 𝑇 𝑋(𝑋 𝑇 𝑋)−1 = 𝐼 dan 𝐸(𝜀 𝑇 𝜀) = 𝜎 2 (Duila, 2015).


2.4 Multikolinearitas

Multikolinearitas adalah suatu kondisi adanya hubungan linear diantara

variabel – variabel independen dalam model regresi. Multikolinearitas dapat

dideteksi menggunakan Variance Inflation Factors (VIF). Nilai VIF dapat

dihitung menggunakan rumus sebagai berikut:


1
𝑉𝐼𝐹𝑗 = 1−𝑅2 (2.12)
𝑗

Dengan 𝑅𝑗 merupakan koefisien determinasi ke-j untuk 𝑗 = 1,2, … , 𝑘.

Apabila nilai VIF lebih besar dari 10 maka mengidentifikasi adanya

multikolinearitas (Anggraeni dkk. 2018).

Selain menggunakan nilai VIF, cara untuk mengetahui ada tidaknya

multikolinearitas, yaitu dengan menggunakan nilai korelasi. Jika elemen |𝒓𝒊𝒋 |

mendekati satu atau |𝒓𝒊𝒋 | > 0.75, maka 𝑋𝑖 dan 𝑋𝑗 adalah benar – benar masalah

multikolinearitas.

1 𝑟12 𝑟13 … 𝑟1𝑝


𝑟21 1 𝑟23 … 𝑟2𝑝
𝜌=[ ⋮ ⋮ ]
⋮ ⋱ ⋮
𝑟𝑝1 𝑟𝑝2 𝑟𝑝3 … 𝑟𝑝𝑝

1 𝑥𝑖𝑟 −𝑥̅ 𝑖 𝑥𝑖𝑟 −𝑥̅ 𝑖


𝑟𝑖𝑘 = ∑𝑛𝑟=1 ( )( ) (2.13)
𝑛−1 √𝑠𝑖𝑖 √𝑠𝑘𝑘

Untuk 𝑖 = 𝑘 menghasilkan 𝑟 = 1 (Fotoro dkk. 2019).

2.5 Uji Signifikansi

Uji signifikansi parameter dari variabel prediktor dilakukan untuk

mengetahui apakah taksiran parameter variabel prediktor yang diperoleh

berpengaruh secara signifikan terhadap model atau tidak. Uji signifikan terdiri
dari dua tahap yaitu uji signifikansi parameter model secara serentak dan uji

signifikansi parameter model secara individu, (Utomo, 2009).

2.6.1 Uji Simultan (Uji F)

Uji F pada dasarnya menunjukkan apakah semua variabel bebas yang

dimasukan dalam model mempunyai pengaruh secara bersama-sama terhadap

variabel terikat. Uji F dilakukan dengan membandingkan nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 dengan

nilai 𝐹𝑡𝑎𝑏𝑒𝑙 . Rumus hipotesis yang digunakan adalah sebagai berikut:

𝐻0 : 𝛽𝑗 = 0

𝐻1 : 𝛽𝑗 ≠ 0

Statistik uji yang digunakan untuk menguji hipotesis nol adalah uji-F:
2
(𝑅 ⁄𝑘)
𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 2 (2.14)
(1−𝑅 ⁄𝑛−𝑘−1)

kriteria pengambilan keputusan:

Tolak 𝐻0 jika 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 > 𝐹𝑡𝑎𝑏𝑒𝑙

Terima 𝐻0 jika 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 ≤ 𝐹𝑡𝑎𝑏𝑒𝑙 (Fotoro dkk. 2019)

2.6.2 Uji Parsial (Uji t)

Uji koefisien regresi secara individu digunakan untuk menguji ada

tidaknya pengaruh masing–masing variabel bebas terhadap model regresi

linier.Uji hipotesis yang digunakan adalah sebagai berikut:

𝐻0 : 𝛽𝑗 = 0

𝐻1 : 𝛽𝑗 ≠ 0

Statistik uji yang digunakan untuk menguji hipotesis nol adalah uji-t:

̂𝑗
𝛽
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 (𝛽̂𝑗 ) = 𝑠𝑒(𝛽̂ ) (2.15)
𝑗
Yang menyebar menurut sebaran 𝑡 dengan derajat bebas (n-p-1).

Sedangkan 𝑠𝑒(𝛽̂𝑗 ) adlah kesalahan standar yang diperoleh dari matriks ragam-

ragam (𝛽̂𝑗 ) dan dapat di tulis sebagai berikut:

𝑣𝑎𝑟(𝛽̂1 ) 𝑐𝑜𝑣(𝛽̂1 , 𝛽̂2 ) ⋯ 𝑐𝑜𝑣(𝛽̂1 , 𝛽̂𝑝 )


∑ || 𝑐𝑜𝑣(𝛽̂1 , 𝛽̂2 ) 𝑣𝑎𝑟(𝛽̂1 ) ⋯ ⋯ | (2.16)
⋮ ⋮ |
⋱ ⋮
𝑐𝑜𝑣(𝛽̂𝑝 , 𝛽̂1 ) 𝑐𝑜𝑣(𝛽̂𝑝 , 𝛽̂1 ) ⋯ 𝑣𝑎𝑟(𝛽̂𝑝 )

Elemen dari matriks persamaan (2.10) berturut-turut memberikan nilai

ragam dari 𝛽̂0 , 𝛽̂1 , … , 𝛽̂𝑝 dan akar positinya memeberikan nilai standar kesalahan

dari parameter regresi yang dimodelkan. Matriks ragam pada persamaan di atas

dapat di peroleh dengan mengoperasikan rumus berikut:

∑ = 𝜎 2 (𝑿𝑻 𝑿)−1 (2.17)

dimana 𝜎 2 adalah ragam homokedastisitas dari 𝑒𝑖 yang ditaksirkan oleh 𝜎̂ 2 .

Dalam kasus regresi ganda 𝜎̂ 2 dapat di tentukan dengan rumus (Gujarati, 1978).

̂ 𝑻𝒀
𝒀𝑻 𝒀−𝜷
̂𝟐 =
𝝈 (2.18)
𝒏−𝒑−𝟏

Pedoman pengambilan keputusan dalam uji parsial jika |𝑡| ≥ 𝑡(𝛼⁄2,𝑛−𝑝−1)

pada tingkat signifikansi yang di pilih, maka hipotesis nol ditolak. Penolakan 𝐻0

menunjukkan bahwa 𝛽𝑗 signifikan berbeda dari nol (Chatterjee & Ali, 2006).

Sedangkan untuk mengukur kecocokan suatu model regresi dapat

menggunakan koefisien determinasi yang dapat dihitung menggunakan rumus

sebagai berikut:
𝐽𝐾𝑅
𝑅 2 = 𝐽𝐾𝑇 (2.19)
dimana :

𝑅2 = Koefisien determinasi

JKR = Jumlah kuadrat regresi

JKT = Jumlah kuadrat total

Sehingga rumus umum koefisisen determinasi, yaitu:

𝛽𝑋 , −𝑁𝑌̅ 2
𝑅2 = (2.20)
𝑌 , 𝑌−𝑁𝑌̅ 2

dimana 𝑁𝑌̅ 2adalah koreksi untuk rata-rata Y, oleh karena itu 𝑌 , 𝑌 akan

memberikan jumlah kuadrat deviasi (Gujarati, 2009).

2.6 Regresi Ridge

Regresi ridge diperkenalkan pertama kali oleh Hoer dan R.W. Kennard

pada tahun 1962. Regresi ridge adalah satu diantara metode yang digunakan untuk

mengatasi masalah multikolinearitas yang merupakan modifikasi dari metode

kuadrat terkecil. Modifikasi tersebut dilakukan dengan menambahkan tetapan bias

𝑐 pada diagonal matriks yang mempengaruhi besarnya koefisien penduga ridge

dan penduga yang dihasilkan adalah penduga yang bias. Estimasi parameter

regresi ridge yang koefisiennya dipengaruhi oleh besarnya nilai tetapan bias 𝑐

diperoleh sebagai berikut:

𝛽̂ ∗ = [𝑐𝑰 + (𝑿𝑻 𝑿)]−1 𝑿𝑻 𝒀 (2.21)

Dimana 𝑐 merupakan nilai tetapan bias, 𝐼 merupakan matriks identitas, 𝑿

merupakan matriks yang telah ditransformasi dan 𝒀 merupakan vektor matriks

yang telah ditransformasi (Anggraeni dkk. 2018).


2.7 Regresi Komponen Utama

2.7.1 Analisis Komponen Utama

Analisis komponen utama merupakan teknik statistic yang digunakan

untuk menjelaskan struktur variansi kovariansi dari sekumpulan variabel melalui

beberapa variabel baru dimana variabel baru ini saling bebas, dan merupakan

kombinasi linier dari variabel asal. Selanjutnya variabel baru ini dinamakan

komponen utama. Secara umum tujuan dari analisis komponen utama adalah

mereduksi dimensi data sehingga lebih muda untuk menginterpretasikan data-

data tersebut.

Analisis komponen utama bertujuan untuk menyederhanakan variabel

yang diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan

menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel

baru yang tidak berkorelasi. Variabel baru (Y ) disebut komponen utama yang

merupakan yang merupakan hasil transformasi dari variabel asal X yang

modelnya dalam bentuk catatan matriks adalah:

𝑌 = 𝐴𝑋 (2.22)

dengan:

A= matriks yang melakukan transformasi terhadap variabel asal x, sehingga

diperoleh vektor komponen y.

Penjabarannya adalah sebagai berikut:

𝑌1 𝑎11 𝑎12 𝑎13 … 𝑎1𝑝 𝑋1


𝑌 𝑎 𝑎22 𝑎23 … 𝑎2𝑝 𝑋
𝑌 = [ ⋮2 ] 𝐴 = [ ⋮21 ⋮ ] 𝑋 = [ ⋮2 ]
⋮ ⋱ ⋮
𝑌𝑝 𝑎𝑝1 𝑎𝑝2 𝑎𝑝3 … 𝑎𝑝𝑝 𝑋𝑝

(Marcus dkk. 2012).


Komponen utama berdasarkan matriks covariansi adalah sebagai berikut:

𝑌1 = 𝑎11 𝑋1 + 𝑎12 𝑋2 + ⋯ + 𝑎1𝑝 𝑋𝑝 = 𝑎1𝑇 𝑋

𝑌2 = 𝑎21 𝑋1 + 𝑎22 𝑋2 + ⋯ + 𝑎2𝑝 𝑋𝑝 = 𝑎2𝑇 𝑋

𝑌𝑖 = 𝑎𝑖1 𝑋1 + 𝑎𝑖2 𝑋2 + ⋯ + 𝑎𝑖𝑝 𝑋𝑝 = 𝑎𝑖𝑇 𝑋

Komponen utama ang diperoleh dari matriks korelasi dari variabel yang

distandarkan, yaitu:

𝑋−𝑋̅𝑖
𝑍= (2.23)
𝑆𝑥𝑗

𝑌1 = 𝑎11 𝑍1 + 𝑎12 𝑍2 + ⋯ + 𝑎1𝑝 𝑍𝑝 = 𝑎1𝑇 𝑍

𝑌2 = 𝑎21 𝑍1 + 𝑎22 𝑍2 + ⋯ + 𝑎2𝑝 𝑍𝑝 = 𝑎2𝑇 𝑍

𝑌𝑖 = 𝑎𝑖1 𝑍1 + 𝑎𝑖2 𝑍2 + ⋯ + 𝑎𝑖𝑝 𝑍𝑝 = 𝑎𝑖𝑇 𝑍

2.7.2 Penerapan Analisis Komponen Utama dalam Analisis Regresi

a) Variabel bebas asal 𝑋𝑗 distandarisasikan

Apabila variabel yang digunakan berukuran satuan yang berbeda ataupun

terdapat perbedaan yang sangat esar, maka harus dilakukan terlebih dahulu

distandarisasikan variabel 𝑍 diperoleh dari transformasi terhadap variabel

asal menjadi:

𝑋𝑖𝑗 −𝑋̅𝑖
𝑍𝑖𝑗 = (2.24)
𝑆𝑥𝑗

∑ 𝑛 𝑛 ̅
∑ (𝑋𝑖𝑗 −𝑋𝑖 )
𝑥
𝑋̅𝑖 = 𝑖−1𝑛 𝑖𝑗 dan 𝑆𝑥𝑗 = 𝑖−1𝑛−1 (2.25)
Dimana 𝑍𝑖𝑗 merupakan variabel baku, 𝑋̅𝑖 rata – rata pengamatan variabel 𝑋

dan 𝑆𝑥𝑗 merupakan simpangan baku variabel 𝑋.

b) Menghitung nilai eigen (𝜆𝑗 ), vektor eigen (𝑎𝑗 ) dan skor komponen utama

(𝑊𝑗 )

c) Meregresikan variabel terikat (𝑌) dengan skor komponen utama (𝑊𝑗 )

yang terpilih

𝑌̂ = 𝛽0 + 𝛽1 𝑊1 + 𝛽2 𝑊2 + ⋯ + 𝛽𝑝 𝑊𝑝 (2.26)

d) Mentransformasikan persamaan regresi komponen utama variabel bebas

𝑊𝑗 ke variabel bebas 𝑍𝑗

𝑌̂ = 𝛽0 + 𝛽1 𝑍1 + 𝛽2 𝑍2 + ⋯ + 𝛽𝑝 𝑍𝑝 (2.27)

e) Mentransformasikan persamaan regresi dengan variabel bebas 𝑍𝑗 ke

variabel bebas 𝑋𝑖

𝑌̂ = 𝑎0 + 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ + 𝑎𝑝 𝑋𝑝 (2.28)

f) Menduga koefisien regresi dengan metode regresi komponen utama

terhadap variabel bebas 𝑋. Varian koefisien regresi variabel bebas 𝑋

adalah:
2
𝑠2 𝑎𝑗𝑖
𝜎𝑎2𝑗 = ∑𝑛 ∑𝑝𝑖=1 (2.29)
𝑖=1(𝑦𝑖 −𝑦̅)2 𝜆𝑖

g) Pengujian keberartian regresi, dilakukan dengan menggunakan uji t

dengan statistik uji:


𝑎
𝑡(𝑎,𝑗) = 𝜎2𝑗 (2.30)
𝑎𝑗

(Mattjik & Sumertajaya. 2011).


2.8 Matriks Korelasi

Mencari matriks korelasi dapat juga dengan menggunakan metode

centering and rescaling (Fekedulegn dkk 2002). Dimana pada metode ini semua

variabel ditransformasikan terlebih dulu dengan menggunakan persamaan berikut:


̅𝑖 )
(𝑌𝑖 −𝑌 (𝑋𝑘𝑖 −𝑋̅𝑘𝑖 )
𝑌∗𝑖 = dan 𝑍𝑖 = (2.31)
𝑆𝑌 √(𝑛−1) 𝑆𝑖 √(𝑛−1)
BAB III

METODE PENELITIAN

3.1 Waktu dan Tempat Penelitian

Penelitian ini dilakukan dari bulan Mei 2019 sampai dengan bulan Juni

2019, bertempat di Laboratorium Statistika dan Perpustakaan Fakultas

Matematika dan Ilmu Pengetahuan Alam.

3.2 Metode Penelitian

Data yang digunakan pada penelitian ini adalah data sekunder yang

diperoleh dari Badan Pusat Statistika D.I Yogyakarta tahun 1997-2012. Variabel

yang digunakan terdiri dari variabel terikat dan variabel bebas. Variabel terikat

yang digunakan, yaitu daya yang dibangkitkan/electricity generated (𝑦) dan

variabel bebas yang digunakan yaitu langganan/customers (𝑥1 ), daya

terpasang/installated capacity (𝑥2 ), dan daya yang dijual/electricity sold (𝑥3 ).

3.3 Prosedur Penelitian

Langkah – langkah analisis data yang dilakukan adalah sebagai berikut:

1. Mencari data yang digunakan.

2. Menentukan variabel terikat dan variabel bebas dari data yang digunakan.

3. Melakukan analisis regresi untuk mennetukan model regresi dengan metode

kuadrat terkecil.

4. Melakukan pemeriksaan asumsi multikolinearitas dengan cara melihat nilai

VIF, melihat nilai koefisien determinasi (𝑅 2 ), melihat nilai korelasi antar

variabel bebas.
5. Melakukan penanganan terhadap masalah multikolinearitas dalam data, yaitu

dengan menggunakan metode:

a) Regresi Ridge

1) Penentuan nilai 𝑐 ditentukan berdasarkan plot kecenderungan ridge

trace dan penentuan VIF.

2) Pendugaan koefisien regresi dengan metode regresi ridge terhadap

variabel 𝑋

3) Menghitung standar error koefisien regresi untuk regresi ridge dan

melakukan pengujian

b) Regresi komponen utama

1) Menghitung nilai akar cirri (𝜆𝑗 ), vektor ciri (𝑎𝑗 ) dan skor

komponen utama (𝑊𝑗 )

2) Meregresikan variabel bebas baru tersebut terhadap variabel terikat

3) Mentransformasikan persamaan regresi komponen utama dengan

variabel bebas 𝑊𝑗 ke variabel bebas 𝑍𝑗

4) Mentransformasikan persamaan regresi dengan variabel bebas 𝑍𝑗

ke variabel bebas 𝑋𝑗

5) Menghitung standar error masing – masing koefisien regresi

6) Pengujian koefisien regresi dan melakukan pengujian dengan

menggunakan uji t

6. Membandingkan hasil standar error yang diperoleh antara regresi komponen

utama dengan regresi ridge untuk memilih metode terbaik.

7. Menarik kesimpulan.
BAB IV

PEMBAHASAN

4.1 Pendugaan Model Regresi Linear

Berdasarkan penelitian yang telah dilakukan terhadap data tenaga listrik

terdapat tiga variabel bebas dan satu variabel terikat akan diduga nilai koefisien

regresinya menggunakan metode kuadrat terkecil. Dengan bantuan program SPSS

diperoleh:

Sehingga diperoleh persamaan regresi linear berganda dengan menggunakan

persamaan (2.2)

𝑌̂ = 948,098 − 238,104𝑋1 − 0.164𝑋2 + 1.240𝑋3

Uji koefisien regresi secara parsial dapat pula dilihat pada tabel di atas dan

berdasarkan data yang ada diperoleh nilai 𝑡𝑡𝑎𝑏𝑒𝑙 = 2,11991 dimana 𝛼 = 5%.

Sehingga diketahui bahwa terdapat satu koefisien regresi signifikan (𝑡ℎ𝑖𝑡𝑢𝑛𝑔 >

𝑡𝑡𝑎𝑏𝑒𝑙 ), yaitu koefisien regresi 𝑋3 (4,192 > 2,11991) serta terdapat dua koefisien

regresi yang tidak signifikan, yaitu 𝑋1 (−0,395 < 2,11991) dan 𝑋2 (−0,320 <

2,11991). Jadi, diketahui bahwa 𝑋3 berpengaruh terhadap 𝑌 dan 𝑋1 dan 𝑋2tidak

berpengaruh terhadap 𝑌.
4.2 Pendeteksian Multikolinearitas

4.2.1 Nilai Korelasi

Dengan bantuan program SPSS diperoleh:

atau koefisien-koefisien korelasi tersebut dapat dibuat dalam bentuk matriks

korelasi sebagai berikut :

1 0,994 0,995
𝑅 = [0,994 1 0,998]
0,995 0,998 1

Berdasarkan matriks terlihat bahwa korelasi antara semua variabel bebas

sangat tinggi yaitu hampir mendekati 1. Ini menunjukkan bahwa adanya

multikolinearitas antara variabel bebas.

4.2.2 Nilai VIF

Dengan bantuan program SPSS diperoleh:


Artinya semua variabel bebas mempunyai nilai VIF yang lebih dari 10, dimana

nilai VIF 𝑋1 = 111,913, 𝑋2 = 251,013 dan 𝑋3 = 312,834. Ini merupakan

sebuah indicator yang baik bahwa multikolinearitas itu ada.

4.3 Metode Regresi Ridge

4.3.1 Regresi Ridge

Regresi Ridge (Ridge regression) ditujukan untuk mengatasi kondisi buruk

(ill conditioned) yang diakibatkan oleh korelasi yang tinggi antara beberapa

variabel

bebas didalam model. Hal ini menyebabkan matriks 𝑋 𝑇 𝑋 hampir singular,

sehingga menghasilkan nilai dugaan parameter model yang tidak stabil.

Regresi ini merupakan modifikasi dari metode kuadrat terkecil dengan

cara menambah tetapan bias (𝑐) yang kecil pada diagonal matriks 𝑋 𝑇 𝑋

𝛽̃ = (𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑌

Dimana c adalah sebuah bilangan positif atau 𝑐 ≥ 0, umumnya 𝑐 terletak antara

interval 0 < 𝑐 < 1.

4.3.2 Sifat Estimator Regresi Ridge

Definisi dari estimasi ridge adalah:

𝛽̃(𝑐) = (𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑌

Dimana 𝑐 ≥ 0, sedangkan estimator kuadrat terkecil merupakan bagian dari

persamaan tersebut ketika 𝑐 = 0.

𝑌 = 𝑋𝛽 + 𝜀

𝐸(𝑌) = 𝐸(𝑋𝛽 + 𝜀)

𝐸(𝑌) = 𝑋𝛽 + 𝐸(𝜀) (karena 𝐸(𝜀) = 0 sehingga)


𝐸(𝑌) = 𝑥𝛽

1. Ekspektasi

𝐸 (𝛽̃(𝑐)) = 𝐸((𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑌)

𝐸 (𝛽̃(𝑐)) = (𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝐸(𝑌)

𝐸 (𝛽̃(𝑐)) = (𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋𝛽

(𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋 = 𝑍𝑅

Ketika 𝑐 = 0 maka 𝑍𝑅 = 1 sehingga 𝐸 (𝛽̃(𝑐)) = 𝛽 tetapi ketika 𝑐 ≠ 0

menghasilkan bias dari 𝛽.

2. Bias

Bias(𝛽̃(𝑐)) = 𝐸 (𝛽̃(𝑐)) − 𝛽

Bias(𝛽̃(𝑐)) = (𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋𝛽 − 𝛽

Bias(𝛽̃(𝑐)) = [(𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋 − 𝐼]𝛽

Bias(𝛽̃(𝑐)) = [(𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋 − (𝑋 𝑇 𝑋 + cI)−1 (𝑋 𝑇 𝑋 + cI)]𝛽

Bias(𝛽̃(𝑐)) = [(𝑋 𝑇 𝑋 + cI)−1 [𝑋 𝑇 𝑋 − (𝑋 𝑇 𝑋 + cI)]]𝛽

Bias(𝛽̃(𝑐)) = [(𝑋 𝑇 𝑋 + cI)−1 [(𝑋 𝑇 𝑋 − 𝑋 𝑇 𝑋) + cI]]𝛽

Bias(𝛽̃(𝑐)) = [(𝑋 𝑇 𝑋 + cI)−1 [𝑂 + cI]]𝛽 (O : matriks yang beranggotakan 0)

Bias(𝛽̃(𝑐)) = [𝑂 + (𝑋 𝑇 𝑋 + cI)−1 (−𝑐𝐼)]𝛽

Bias(𝛽̃(𝑐)) = [(𝑋 𝑇 𝑋 + cI)−1 (−𝑐)𝐼]𝛽

Bias(𝛽̃(𝑐)) = [(𝑋 𝑇 𝑋 + cI)−1 (−𝑐)(𝑋 𝑇 𝑋 + cI)(𝑋 𝑇 𝑋 + cI)−1 ]𝛽


Bias(𝛽̃(𝑐)) = [(−𝑐)(𝑋 𝑇 𝑋 + cI)−1 𝐼]𝛽

Bias(𝛽̃(𝑐)) = (−𝑐)(𝑋 𝑇 𝑋 + cI)−1 𝛽

3. Variansi

𝑐𝑜𝑣 (𝛽̃(𝑐)) = 𝑐𝑜𝑣((𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋𝛽̃)

𝑐𝑜𝑣 (𝛽̃(𝑐)) = ((𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋)𝑐𝑜𝑣(𝛽̃)((𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋)𝑇

𝑐𝑜𝑣 (𝛽̃(𝑐)) = 𝜎 2 ((𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋)(𝑋 𝑇 𝑋)−1 ((𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋)𝑇

𝑐𝑜𝑣 (𝛽̃(𝑐)) = 𝜎 2 ((𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋)(𝑋 𝑇 𝑋 + cI)−1

Umumnya sifat dari penafsiran ridge ini memiliki variansi yang minimum

sehingga diperoleh nilai VIF-nya yang merupakan diagonal utama dari

matriks.

(𝑋 𝑇 𝑋 + cI)−1 𝑋 𝑇 𝑋(𝑋 𝑇 𝑋 + cI)−1

4.3.3 Analisis data regresi ridge

Dengan bantuan software NCSS 2019 dengan nilai 𝑘 = 0,005, diperoleh:

𝑌̂ = −2070 + 698,812𝑋1 + 0,457𝑋2 + 0,631𝑋3

4.4 Metode Regresi Komponen Utama

Untuk melakukan regresi komponen utama, pertama – tama kita perlu

melakukan pembakuan (standardisasi) pada variabel independen data dengan

menggunakan rumus pada persamaan (2.23), dengan bantuan microsoft excel

sehingga diperoleh data baru pada lampiran tabel 2.


Kemudian untuk mengetahui berapa banyak faktor yang akan kita gunakan

dengan melihat nilai EigenValue dari variabel independen yang kita gunakan.

Dengan bantuan program minitab 16, diperoleh:

Karena hanya terdapat satu faktor yang memiliki nilai EigenValue yang

lebih dari satu, maka kita akan gunakan satu faktor. Sehingga berdasarkan

persamaan (2.26) diperoleh:

𝑌̂ = 13547,9 + 2616,89𝑊1

Jika dilihat dari nilai VIF pada hasil regresi persamaan di atas, sudah tidak

terdapat lagi masalah multikolinearitas karena nilai VIF < 10. Maka dapat

dikatakan bahwa model sudah baik.

Kemudian transformasi persamaan regresi komponen utama variabel bebas

𝑊𝑗 ke variabel bebas 𝑍𝑗 dengan menggunakan nilai Principal Component yang

telah diperoleh sebelumnya pada software Minitab

𝑊1 = 0,576950𝑍1 + 0,577441𝑍2 + 0,577659𝑍3

Sehingga diperoleh persamaan regresinya sebagai berikut:

𝑌̂ = 13547,9 + 2616,89𝑊1

𝑌̂ = 13547,9 + 2616,89(0,576950𝑍1 + 0,577441𝑍2 + 0,577659𝑍3 )

𝑌̂ = 13547,9 + 1509,81𝑍1 + 1511,0996𝑍2 + 1511,67𝑍3


Kemudian kita mencari simpangan baku untuk dapat melakukan uji t-hitung agar

mengetahui apakah variabel independen tersebut dapat menjelaskan keragaman

data atau tidak. Dengan menggunakan persamaan (2.29) diperoleh:

116117 0,5769502
𝑉𝑎𝑟(𝑌1 ) = ( ) = 0,000045
308947612 2,9918

=> 𝑠(𝑌1 ) = √𝑉𝑎𝑟(𝑌1 ) = √0,000045 = 0,007

116117 0,5774412
𝑉𝑎𝑟(𝑌2 ) = ( ) = 0,0212
308947612 0,0063

=> 𝑠(𝑌2 ) = √𝑉𝑎𝑟(𝑌2 ) = √0,0212 = 0,146

116117 0,5776592
𝑉𝑎𝑟(𝑌3 ) = ( ) = 0,0703
308947612 0,0019

=> 𝑠(𝑌3 ) = √𝑉𝑎𝑟(3) = √0,0703 = 0,265

Kemudian transformasikan persamaan regresi dengan variabel bebas 𝑍𝑗 ke

variabel bebas 𝑋𝑖 menggunakan persamaan (2.28), sehingga diperoleh persamaan

regresi komponen utama:

𝑌̂ = 13547,9 + 1509,81𝑍1 + 1511,0996𝑍2 + 1511,67𝑍3

𝑋1 − 6,615 𝑋2 − 7043,2 𝑋3 − 12364,3


𝑌̂ = 13547,9 + 1509,81 ( ) + 1511,1 ( ) + 1511,67 ( )
1,225 2157,48 4174,1

𝑌̂ = −4481,06 + 1232,5𝑋1 + 0,7𝑋2 + 0,4𝑋3


4.5 Pemilihan Metode Terbaik

Pemilihan metode terbaik untuk mengatasi masalah multikolinearitas antara

regresi komponen utama dan regresi ridge didasarkan pada stand error yang dapat

dilihat pada tabel di bawah.

Estimasi Parameter Standar error


Variabel Regresi Regresi
Regresi
Bebas Komponen Regresi Ridge Komponen
Ridge
Utama Utama
𝑋1 1232,5 698,812 64,85 465,0673
𝑋2 0,7 0,457 880,9 0,2437
𝑋3 0,4 0,631 1586 0,1241
BAB V

PENUTUP

5.1 Kesimpulan

Dari hasil analisis dan pembahasan bab sebelumnya, maka dapat ditarik

kesimpulan, yaitu:

1. Estimasi yang diperoleh dengan menggunakan metode regresi ridge, yaitu:

𝑌̂ = −2070 + 698,812𝑋1 + 0,457𝑋2 + 0,631𝑋3

Estimasi yang diperoleh dengan menggunakan metode regresi komponen

utama, yaitu:

𝑌̂ = −4481,06 + 1232,5𝑋1 + 0,7𝑋2 + 0,4𝑋3

2. Dengan melihat ukuran perbandingan yang digunakan yakni nilai standar

error metode regresi ridge lebih baik menangani kasus multikolinearitas

dibandingkan dengan regresi komponen utama.

5.2 Saran

Peneliti yang berkeinginan melankutkan pengembangan tulisan ini

diharapkan dapat menggunakan metode yang berbeda misalnya dengan

menggunakan metode kuadrat terkecil parsial sebagai metode pembanding serta

menggunakan data riil.


DAFTAR PUSTAKA

Mardikyan, S., Cetin. 2008. Efficient Choice of Biasing Constant for Ridge

Regression. Int J. Contemp. Math Sciences Vol. 3 No. 11 Hal 527-536.

Montgomery, D.C, Peck, E.A. 1991. Introduction Linear Regression Analysis

Second Edition. New York:John Wiley & Sons.

Supranto, J.1986. Pengantar Probabilitas dan Statistik Induktif(edisi pertama).

Jakarta:Erlangga.

Ul-Sulfie, A., Yahya, A.S., Ramli, N.A.2011. Improving Multiple Linear

Regression Model Using Principal Component Analysis for Predicting

PM10 Concentration in seberang Prai, Pulau Minang. International

Journal of Environmental Science Vol. 2 No. 2.

Widarjono, A. 2007. Ekonometrika Teori dan Aplikasi untuk Ekonomi dan Bisnis.

Yogyakarta:Ekonisia FE UII.

Anda mungkin juga menyukai