Anda di halaman 1dari 12

UJM 6(2) (2017)

UNNES Journal of Mathematics


http://journal.unnes.ac.id/sju/index.php/ujm

PERBANDINGAN METODE PARTIAL LEAST SQUARE (PLS) DAN


PRINCIPAL COMPONENT REGRESSION (PCR) UNTUK MENGATASI
MULTIKOLINEARITAS PADA MODEL REGRESI LINEAR BERGANDA

Eko Supriyadi, Scolastika Mariani, Sugiman

Jurusan Matematika, FMIPA, Universitas Negeri Semarang, Indonesia


Gedung D7 Lt. 1, Kampus Sekaran Gunungpati, Semarang 50229

Info Artikel Abstrak


________________ ___________________________________________________________________
Sejarah Artikel: Salah satu asumsi analisis regresi linear berganda yaitu tidak terjadi masalah
Diterima Juli 2017 multikolinearitas. Apabila terjadi masalah multikolinearitas, metode Partial Least Square
Disetujui Agustus 2017 (PLS) dan Principal Component Regression (PCR) merupakan dua metode yang dapat
Dipublikasikan Nopember 2017 digunakan untuk mengatasi masalah multikolinearitas tersebut. Metode yang digunakan
dalam penelitian ini adalah Partial Least Square (PLS) dan Principal Component Regression
(PCR) dengan data anggaran pendapatan Daerah Provinsi Jawa Tengah 2013. Hasil dari
penelitian ini diperoleh model persamaan regresi dengan metode Partial Least Square (PLS)
________________ dan model persamaan regresi dengan metode Principal Component Regression (PCR);
Keywords: Selanjutnya dipilih metode terbaik dengan menggunakan kriteria nilai 𝑅2 tertinggi dan
Multikolinearitas;
MSE terkecil. Pemilihan metode terbaik adalah dengan melihat nilai 𝑅2 tertinggi dan
MSE terkecil. Dapat disimpulkan bahwa metode yang lebih baik adalah Partial Least Square
Partial Least Square (PLS);
Principal Component Regression dengan nilai 𝑅 = 0,7752 dan nilai MSE yang dihasilkan Partial Least Square =
2

(PCR) 3,660671E16.

Abstract
_________________________________________________________________
One of analysis assumptions of bifilar linier regression is there is no multikolinearity problem occurs.
If there is a multikolinearity problem occurs, Partial Least Square (PLS) and Principal Component
Regression (PCR) methods are can used to solve the multikolinearity problem. The method that was
used in this research were Partial Least Square (PLS) and Principal Component Regression (PCR)
by using the data of budgeting income of Central Java in 2013. The result of this research was gotten
a model of regression equation by using Partial Least Square (PLS) method and a model of regression
equation by using Principal Component Regression (PCR); After that choose the best method selection
criteria was by seeing at the highest 𝑅2 score and the lowest MSE. The best method selection was by
seeing at the highest 𝑅2 score and the lowest MSE. Thus, it could be concluded that Partial Least
Square with the score of 𝑅2 = 0,7752 and the MSE score that was resulted by Partial Least Square
= 3,660671E16.

How to Cite

Supriyadi, E., Mariani, S. & Sugiman. (2017). Perbandingan Metode Partial Least Square (PLS) dan
Principal Component Regression (PCR) untuk Mengatasi Multikolinearitas pada Model Regresi
Linear Berganda. Unnes Journal of Mathematics, 6(2): 117-128.

© 2017 Universitas Negeri Semarang


Alamat korespondensi: p- ISSN 2252-6943
E-mail: Ekosupriyadi2012@gmail.com e- ISSN 2460-5859
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

PENDAHULUAN multikolinearitas menimbulkan masalah dalam


Analisis regresi merupakan analisis yang model regresi. Korelasi antar variabel bebas yang
mempelajari bagaimana membentuk sebuah sangat tinggi menghasilkan penduga model
hubungan fungsional dari data untuk dapat regresi yang bias, tidak stabil, dan mungkin jauh
menjelaskan atau meramalkan suatu fenomena dari nilai prediksinya (Farahani et al, 2010).
alami atas dasar fenomena yang lain. Analisis Multikolinearitas dapat diatasi dengan
regresi memiliki peranan yang penting dalam beberapa metode antara lain Partial Least Square
berbagai bidang ilmu pengetahuan. Kebanyakan (PLS) dan Principal component Regression (PCR)
analisis regresi bergantung pada metode kuadrat (Saika, 2014). Metode PLS merupakan metode
terkecil untuk mengestimasi parameter- yang mengkombinasikan sifat-sifat dari
parameternya dalam model regresi. Tetapi komponen utama dan regresi linear berganda.
metode ini biasanya dibentuk dengan beberapa Tujuan dari metode PLS adalah mengestimasi
asumsi, seperti tidak ada autokorelasi, tidak dan menganalisis variabel terikat dari variabel-
terjadi multikolinearitas, homoskedastisitas, dan variabel bebas. Dalam hal ini, PLS mereduksi
error berdistribusi normal. dimensi variabel-variabel bebas dengan
Analisis regresi linear berganda yang membentuk variabel-variabel baru yang
mempunyai banyak variabel bebas sering timbul merupakan kombinasi linear dari variabel-
masalah karena terjadinya hubungan antara dua variabel bebas dengan dimensi lebih kecil (Abdi,
atau lebih variabel bebasnya. Variabel bebas 2010). Sedangkan metode PCR merupakan salah
yang saling berkorelasi disebut multikolinearitas satu analisis regresi yang menggunakan
(multicollinearity). Salah satu dari asumsi model komponen utama untuk mengatasi masalah
regresi linear adalah bahwa tidak terdapat multikolinieritas pada regresi berganda
multikolinearitas diantara variabel bebas yang (Tazliqoh et al, 2015). Komponen utama
termasuk dalam model. Multikolinearitas terjadi merupakan suatu teknik statistika untuk
apabila terdapat hubungan atau korelasi diantara mengubah dari sebagian besar variabel asli yang
beberapa atau seluruh variabel bebas (Gonst and digunakan yang saling berkorelasi satu dengan
Mason, 1977 dalam Soemartini, 2008). yang lainnya menjadi satu kumpulan variabel
Pada pembentukan model regresi terdapat baru yang lebih kecil dan saling bebas (Johnson
kemungkinan adanya hubungan antara variabel & Wichern, 2010).
satu dengan variabel yang lain. Multikolinearitas Menurut Nurhasanah (2012) hasil
menyebabkan estimator mempunyai varian yang penelitian menunjukkan metode Partial Least
besar akibatnya interval estimasi cenderung lebih Square (PLS) nilai koefisien penduga pada
besar sehingga membuat variabel bebas secara masing-masing variabel tidak semuanya
statistika tidak signifikan padahal nilai koefisien berpengaruh nyata pada taraf nyata 0,05
determinasi (𝑅2 ) tinggi sehingga sulit sedangkan pada regresi komponen utama semua
mendapatkan estimasi yang tepat (Widarjono, nilai koefisien penduga pada masing-masing
2007). Oleh karena itu perlu dilakukan tindakan variabel semuanya berpengaruh nyata pada taraf
lanjut untuk menangani multikolinearitas. nyata 0,05. Metode Partial Least Square (PLS)
Efek multikolinearitas dapat menjadikan memberikan hasil yang lebih baik jika
nilai model tidak dapat menjelaskan hubungan dibandingkan dengan metode regresi komponen
antara variabel dependent dan variabel independent utama. Hal ini dapat disimpulkan dengan
secara baik. Keberadaan multikolinearitas akan melihat nilai (𝑅2 ). Mean Square Error Prediction
menyebabkan varians parameter yang (MSEP), dan Root Mean Square Error Prediction
diestimasikan akan menjadi lebih besar dari yang (RMSEP). Metode Partial Least Square (PLS)
seharusnya dengan demikian tingkat akurasi dari mempunyai nilai (𝑅2 ) yang lebih tinggi dan
estimasi akan menurun (Sukmono, 2014). mempunyai nilai MSEP dan RMSEP yang lebih
Multikolinearitas dalam suatu model rendah jika dibandingkan terhadap metode
regresi dapat diketahui dengan menghitung nilai regresi komponen utama.
Variance Inflation Factor (VIF). VIF adalah suatu Dari uraian di atas maka penulis
faktor yang mengukur seberapa besar kenaikan menganalisis dengan judul “Perbandingan
ragam dari koefisien penduga regresi metode Partial Least Square (PLS) dan Principal
dibandingkan terhadap variabel bebas yang Component Regression (PCR) untuk mengatasi
orthogonal jika dihubungkan secara linear. Nilai multikolinearitas pada model regresi linear
VIF akan semakin besar jika terdapat korelasi berganda”. Dari kedua metode Partial Least
yang semakin besar diantara variabel bebas. Square (PLS) dan Principal component Regression
Nilai VIF > 10 dapat digunakan sebagai petunjuk (PCR) akan membandingkan nilai koefisien
adanya multikolinearitas. Gejala determinasi (𝑅2 ) dan Mean Square Error (MSE).

118
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

Kemudian didapatkan metode mana yang lebih dapat diketahui apabila nilai 𝑉𝐼𝐹 ≥ 10 . (3)
baik untuk mengatasi multikolinearitas. TOL (Tolerance) Jika nilai Tolerance kurang dari
Penelitian ini didukung dengan 0,1 atau nilai VIF melebihi 10 maka hal tersebut
penggunaan paket program SAS. Paket program menunjukkan bahwa multikolinearitas adalah
SAS (Statistical Analysis System) adalah paket masalah yang pasti terjadi antar variabel bebas.
program yang mendukung analisis dalam bidang Principal Component Regression (PCR)
statistika, riset operasi, analisis ekonomi, time merupakan salah satu metode yang telah
series dan lain-lain. dikembangkan untuk mengatasi masalah
Rumusan masalah dalam penelitian ini multikolinearitas. PCR merupakan analisis
adalah (1) Bagaimana model persamaan regresi regresi dari variabel-variabel dependent terhadap
dengan metode Partial Least Square (PLS) untuk komponen-komponen utama yang tidak saling
mengatasi multikolinearitas? (2) Bagaimana berkorelasi, dimana setiap komponen utama
model persamaan regresi dengan metode merupakan kombinasi linear dari semua variabel
Principal Component Regression (PCR) untuk independent (Draper & Smith 1992, hal 313).
mengatasi multikolinearitas? (3) Metode Principal Component Regression (PCR)
manakah antara Partial Least Square (PLS) dan merupakan suatu teknik analisis yang
Principal Component Regression (PCR) untuk mengkombinasikan antara analisis regresi
mengatasi multikolinearitas yang lebih baik? dengan Principal Component Analysis (PCA).
Tujuan dari penelitian ini adalah Analisis Regresi digunakan untuk mengetahui
Mengetahui metode yang lebih baik antara ada tidaknya hubungan antara variabel dependent
Partial Least Square (PLS) dan Principal Component dan independent, sedangkan PCA pada dasarnya
Regression (PCR) untuk mengatasi bertujuan untuk menyederhanakan variabel yang
multikolinearitas berdasarkan pada diamati dengan cara menyusutkan (mereduksi)
perbandingan nilai MSE dan (𝑅2 ). dimensinya. Hal ini dilakukan dengan jalan
Untuk memperkirakan/meramalkan nialai menghilangkan korelasi di antara variabel
variabel Y, akan lebih baik apabila diikut melalui transformasi variabel asal ke variabel
memperhitungkan variabel-variabel lain yang baru (merupakan kombinasi linear dari variabel-
ikut mempengaruhi Y. Dengan demikian, variabel asal) yang tidak saling berkorelasi. Dari
mempunyai hubungan dianatra satu variabel p buah variabel asal dapat dibentuk p buah
tidak bebas (dependent) Y dengan beberapa komponen utama, dipilih k buah komponen
variabel lain yang bebas (independent) utama saja (k<p) yang telah mampu
𝑋1 , 𝑋2 , … , 𝑋𝑝 . menerangkan keragaman data cukup tinggi
Untuk meramalkan Y, apabila semua (antara 80% sampai dengan 90%) (Johnson &
nilai variabel bebas diketahui, maka kita dapat Wichern, 2010, hal. 356). Komponen utama
mempergunakan persamaan regresi linear yang dipilih tersebut (k buah) dapat mengganti p
berganda. Hubungan Y dan 𝑋1 , 𝑋2 , … , 𝑋𝑝 yang buah variabel asal tanpa mengurangi informasi.
Analisis regresi komponen utama (PCR)
sebenarnya adalah sebagai berikut.
merupakan analisis regresi variabel dependent
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑝 𝑋𝑝 + 𝜀1 (1) terhadap komponen-komponen utama yang
tidak saling berkorelasi, regresi komponen utama
dapat dinyatakan sebagai berikut :
Istilah multikolinearitas mula-mula
ditemukan oleh Ragnar Frisch. Pada mulanya 𝑌 = 𝑤0 + 𝑤1 𝐾1 + 𝑤2 𝐾2 + ⋯ + 𝑤𝑚 𝐾𝑚 + 𝜀 (2)
multikolinearitas berarti adanya hubungan linear
yang sempurna atau pasti, diantara beberapa 𝐾1 , 𝐾2 , 𝐾3 , … , 𝐾𝑚 menunjukan komponen utama
atau semua variabel bebas dari model regresi yang dilibatkan dalam analisis regresi komponen
ganda (Gujarati, 2004:157). utama, dimana besaran 𝑚 lebih kecil daripada
banyaknya variabel independent yaitu sejumlah 𝑝,
Ada beberapa cara untuk mengetahui
serta Y sebagai variabel dependent. Komponen
keberadaan multikolinearitas dalam suatu model
utama merupakan kombinasi linear dari variabel
regresi (1) menganalisis matriks korelasi Jika
baku Z, sehingga
antara dua atau lebih variabel independent
𝐾1 = 𝑎11 𝑍1 + 𝑎21 𝑍2 + ⋯ + 𝑎𝑝1 𝑍𝑝
memiliki korelasi yang cukup tinggi, biasanya di
atas 0,9 maka hal tersebut mengindikasikan
terjadinya multikolinearitas. (2) VIF (Variance 𝐾2 = 𝑎12 𝑍1 + 𝑎22 𝑍2 + ⋯ + 𝑎𝑝2 𝑍𝑝
Inflantion Factor) adalah salah satu cara dalam
mendeteksi adanya multikolinearitas, dan dalam ⋮
penulisan ini menggunakan nilai Tolerance atau
VIF. Mulktikolinearitas dalam sebuah regresi 𝐾𝑚 = 𝑎1𝑚 𝑍1 + 𝑎2𝑚 𝑍2 + ⋯ + 𝑎𝑝𝑚 𝑍𝑝 (4)

119
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

Apabila 𝐾1 , 𝐾2 , … , 𝐾𝑚 dalam persamaan (4) Perhitungan komponen PLS kedua 𝑡2 .


didistribusikan kembali ke dalam persamaan Komponen PLS kedua didapatkan dengan
regresi komponen utama, yaitu persamaan (3) melakukan regresi sederhana y terhadap 𝑡1 dan
maka diperoleh: masing-masing 𝑥𝑗 terlebih dahulu kemudian
𝑌 = 𝑤0 + 𝑤1 (𝑎11 𝑍1 + 𝑎21 𝑍2 + ⋯ + 𝑎𝑝1 𝑍𝑝 ) + regresi antara 𝑥𝑗 terhadap 𝑡1 . Variabel-variabel
𝑤2 (𝑎12 𝑍1 + 𝑎22 𝑍2 + ⋯ + 𝑎𝑝2 𝑍𝑝 ) + ⋯ + 𝑥𝑗 yang digunakan hanya variabel yang
𝑤𝑚 (𝑎1𝑚 𝑍1 + 𝑎2𝑚 𝑍2 + ⋯ + 𝑎𝑝𝑚 𝑍𝑝 ) + 𝜀 (5) berkontribusi secara signifikansi dalam
Persamaan regresi linear dugaan komponen menjelaskan y pada 𝑡1 . Model persaman regresi
utama sebagai berikut: keduannya adalah sebagai berikut:
1 p
𝑌 = 𝑏0 + 𝑏1 𝑍1 + 𝐵2 𝑍2 + ⋯ + 𝑏𝑝 𝑧𝑝 (6) t2 = ∑ cor(y, x1j )x1j ∗ (9)
2 j=1
√∑pj=1 cor(y, x1j )
Metode Partial Least Square (PLS) pertama
kali diperkenalkan oleh Herman Ole Andres
Wold pada tahun 1960 sebagai metode Dengan 𝑥1𝑗 ∗ adalah residu yang telah
alternative untuk mengatasi keterbatasan metode distandarisai dan dihasilkan dari regresi 𝑥𝑗
Ordinary Least Square (OLS) ketika data terhadap 𝑡1 .
mengalami masalah multikolinearitas. Untuk Perhitungan Komponen PLS ke-h, 𝑡ℎ
meregresikan variabel terikat y dengan variabel Seperti langkah pada pembentukan komponen
𝑋1 , 𝑋2 ,…, 𝑋𝑘 , metode PLS mencari komponen- PLS sebelumnya, variabel yang digunakan
komponen baru yang berperan sebagai variabel adalah variabel-variabel yang signifikan dalam
bebas untuk mengestimasi parameter regresi. menjelaskan y pada 𝑡1 , 𝑡2 , … , 𝑡ℎ−1 . Model regresi
Regresi PLS ini dapat diperoleh melalui y terhadap 𝑡1 , 𝑡2 , … , 𝑡ℎ−1 dan masing-masing 𝑥𝑗
regresi sederhana maupun berganda dengan adalah sebagai berikut:
mengambil kesimpulan dari uji signifikansi. Uji y = c1 t1 + c2 t 2 + ⋯ + ch−1 t h−1 + a hj xj + residu
signifikansi ini bertujuan untuk memilih variabel
Untuk mendapatkan komponen 𝑡ℎ yang
independent pembangun komponen PLS dan
orthogonal terhadap 𝑡ℎ−1 , diregresikan 𝑥𝑗
menentukan banyaknya komponen PLS yang
terbentuk (Vinzi et al, 2004). Tujuan PLS adalah terhadap komponen PLS yang dituliskan sebagai
membentuk komponen yang dapat menangkap berikut:
informasi dari variabel independent untuk 𝑥𝑗 = 𝑝1𝑗 𝑡1 + 𝑝2𝑗 𝑡2 + ⋯ + 𝑝ℎ−1𝑗 𝑡ℎ−1 + 𝑥(ℎ−1)𝑗
memprediksi variabel dependent. Dalam
pembentukan komponen PLS, digunakan Dengan 𝑥(ℎ−1)𝑗 adalah residu yang
variabel dependent y yang distandarisasi dan dihasilkan dari regresi setiap 𝑥𝑗 terhadap
variabel-variabel independent yang terpusat 𝑡1 , 𝑡2 , … , 𝑡ℎ−1 . Komponen ke-h didefinisikan
(Vinzi, et al, 2004). Model regresi Partial Least sebagai berikut:
Square dengan m komponen dapat dituliskan 𝑡ℎ =
1
sebagai berikut: ∑𝑝𝑗=1 𝑐𝑜𝑟(𝑥(ℎ−1)𝑗 , 𝑦)𝑥(ℎ−1)𝑗

2
𝑌 = ∑𝑚ℎ=1 𝑐ℎ 𝑡ℎ + 𝜀 (7) √∑𝑝
𝑗=1
𝑐𝑜𝑟(𝑥(ℎ−1)𝑗, 𝑦)
(10)
Dengan 𝑌 adalah variabel dependent, 𝑐ℎ
adalah koefisien regresi Y terhadap 𝑡ℎ , 𝑡ℎ = Dengan 𝑎ℎ𝑗 adalah koefisien regresi dari 𝑥(ℎ−1)𝑗
∑𝑝𝑗=1 𝑤(ℎ)𝑗 𝑋𝑗 adalah komponen utama ke-h yang dalam regresi y pada 𝑡1 , 𝑡2 , … , 𝑡ℎ−1 .
tidak saling berkorelasi, (h=1,2,…m) dengan

syarat komponen PLS 𝑡ℎ = ∑𝑗=1 𝑤(ℎ)𝑗 𝑋𝑗
𝑝
Dimana 𝑥(ℎ−1)𝑗 adalah residu standar dari
orthogonal. regresi dan setiap 𝑥𝑗 terhadap 𝑡1 , 𝑡2 , … , 𝑡ℎ−1 .
Penghitungan Komponen PLS pertama 𝑡1 . Perhitungan komponen PLS berhenti ketika
Komponen PLS pertama (𝑡1 ) adalah linear dari tidak ada lagi variabel independent yang
variabel independent 𝑋𝑗 dengan koefisien signifikan membangun komponen PLS.
pembobot 𝑤1 .
1 𝑝 METODE
𝑡1 = ∑ 𝑐𝑜𝑟(𝑥𝑗 , 𝑦)𝑥𝑗∗ (8)
2 𝑗=1
√∑𝑝𝑗=1 𝑐𝑜𝑟(𝑥𝑗 , 𝑦) Metode yang digunakan pada penelitian ini
adalah fokus penelitian, studi pustaka,
Dimana 𝑥𝑗∗ adalah 𝑥𝑗 yang terstandarisasi, perumusan masalah, pengumpulan data,
pemecahan masalah, dan menarikan
𝑐𝑜𝑟(𝑥𝑗 , 𝑦) adalah korelasi variabel 𝑥𝑗 dengan y. kesimpulan.

120
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

Fokus penelitian yang dilakukan dalam 6. Membandingkan nilai koefisien determinasi


penelitian ini yaitu: (1) Penelitian menggunakan 𝑅 2 dan nilai Mean Square Error (MSE) untuk
Model Partial Least Square (PLS), dan Principal memperoleh metode terbaik.
Component Regression (PCR). (2) Metode yang
7. Menggunakan metode terbaik yang didapat
digunakan adalah Metode Partial Least Square
untuk mengestimasi data.
(PLS), dan Principal Component Regression (PCR).
(3) Penelitian didukung dengan bantuan Langkah-langkah tersebut dapat dilihat pada
program SAS (Satistical Analysis System). (4) diagram alur Gambar 1 sebagai berikut.
Variabel yang digunakan adalah Anggaran
Pendapatan Daerah Provinsi Jawa Tengah 2013.
Studi pustaka dilakukan dengan cara
mengumpulkan sumber-sumber informasi yang
berkaitan dengan penelitian yang dikaji berupa
buku, teks, jurnal, prosiding, dan literatur
lainnya. Setelah sumber pustaka terkumpul,
dilanjutkan dengan menelaah sumber pustaka
tersebut untuk dijadikan landasan dalam analisis
permasalahan yang dikaji.
Perumusan masalah diperlukan untuk
membatasi permasalah sehingga diperoleh
bahan kajian yang jelas. Sehingga akan lebih
mudah untuk menentukan langkah dalam
memecahkan masalah tersebut. Berdasarkan
latar belakang pemilihan judul dan materi
pendukung yang telah dikaji, maka rumusan
masalah pada penelitian ini yaitu (1) bagaimana
model persamaan dengan metode Partial Least
Square (PLS) untuk mengatasi multikolinearitas?
(2) Bagaimana model persamaan dengan metode
metode Principal Component Regression (PCR)
untuk mengatasi multikolinearitas? (3)
Metode manakah antara Partial Least Square
(PLS) dan Principal Component Regression (PCR)
untuk mengatasi multikolinearitas yang lebih
baik?
Pengumpulan data dengan cara mengambil
data sekunder yang diperoleh dari Kantor Badan
Pusat Statistik (BPS) Provinsi Jawa Tengah, data
yang dipakai Anggaran Aendapatan Daerah
Provinsi Jawa Tengah 2013.
Pada tahap ini dilakukan kajian pustaka,
yaitu mengkaji permasalahan secara teoritis
berdasarkan sumber-sumber pustaka yang ada.
Adapun langkah-langkah yang dilakukan dalam
tahap pemecahan masalah ini adalah :
1. Mencari data yang akan digunakan.
2. Menentukan variabel terikat dan variabel
bebas dari data yang diperoleh.
3. Melakukan analisis regresi untuk
menentukan model regresi dengan metode
Gambar 1 Diagram Alur Penelitian
kuadrat terkecil.
4. Melakukan analisis regresi untuk melihat ada Penarikan kesimpulan merupakan langkah
tidaknya multikolinearitas dengan melihat terakhir dalam kegiatan penelitian ini yang
nilai VIF dan TOL. dilakukan dengan cara menarik kesimpulan dari
5. Melakukan penanganan terhadap masalah keseluruhan permasalahan yang telah
multikolinearitas apabila asumsi dirumuskan dengan berdasarkan pada landasan
multikolinearitas terpenuhi. teori dan hasil pemecahan masalah.

121
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

HASIL DAN PEMBAHASAN Berdasarkan tabel 2 hasil persamaan regresi


Dalam penelitian ini, langkah pertama yang linear dugaan yang diperoleh adalah sebagai
dilakukan adalah mendeskripsikan data berikut:
Anggaran Pendapatan Daerah Provinsi Jawa 𝑦̂ = 115519965 − 0,866615𝑋1 + 3,60648𝑋2
Tengah Tahun 2013. Selanjutnya akan − 2,63090𝑋3 + 1,66460𝑋4
dilakukan pengujian asumsi regresi, uji asumsi + 0,95078𝑋5 + 1,03470𝑋6
klasik, mengatasi masalah multikolinearitas dan
pemilihan metode terbaik. 2. Uji Asumsi Klasik

1. Uji Asumsi Regresi Uji asumsi klasik adalah persyaratan statistik


a. Uji Normalitas yang harus dipenuhi pada analisis regresi linear
berganda. Uji asumsi klasik yang digunakan
Model regresi yang baik jika distribusi data yaitu uji multikolinearitas, uji heteroskedastisitas
normal atau mendekati normal. Hal ini dapat dan uji autokorelasi dengan menggunakan
dideteksi dengan melihat nilai Kolmogorov program SAS sehingga diperoleh hasil sebagai
Smirnov (K-S). berikut nilai Kolmogorov Smirnov berikut:
(K-S). Plot Grafik Normal 𝑝−𝑝 . a. Multikolinearitas

Tabel 1. Normalitas Data Uji multikolinearitas bertujuan untuk


menguji apakah dalam model regresi terdapat
Goodness-of-Fit Tests for Normal Distribution korelasi antar variabel independent. Teknik yang
test statistik DF P Value dapat digunakan untuk mendeteksi adanya
Kolmogorov- D 0,136586 0,095 multikolinearitas diantaranya adalah
Smirnov pemeriksaan matriks korelasi, nilai VIF dan
Cramer-von W- 0,157733 0,019 TOL tapi dalam penelitian ini peneliti hanya
Mises Sq melihat nilai VIF dan TOL untuk mendeteksi
Anderson- A- 0,88332 0,022 adanya multikolinearitas pada data. Berikut nilai
Darling Sq Variance Inflation Factor (VIF) dan TOL.
Chi-Square Chi- 14,64407 4 0,005
sq
Tabel 3. Nilai VIF dan TOL
Output SAS nilai Kolmogorov-Smirnov Parameter Estimates
menunjukkan 0,1365 dan P value 0,095. Hal ini Variable TOL VIF
menunjukkan bahwa data berdistribusi normal. Intercept . 0
b. Model Regresi Berganda X1 0,24771 4,03702
Dari data Anggaran Pendapatan Daerah X2 0,59049 1,69350
Provinsi Jawa Tengah dilakukan regresi linear X3 0,06067 16,48238
dengan menggunakan program SAS. Analisis X4 0,06079 16,45103
regresi bertujuan untuk mengetahui hubungan X5 0,65004 1,53837
variabel-variabel dependent terhadap variabel X6 0,85208 1,17360
independentnya.
Variabel 𝑋3 dan 𝑋4 mengandung
Tabel 2. Parameter Estimates multikolinearitas sebab dari nilai VIF > 10 yaitu
16,48238 dan 16,45103 dan nilai TOL < 0,1
Parameter Estimates
yaitu 0,06067 dan 0,06079. sehingga akan
Variable dilakukan tindakan lanjut untuk mengatasi
Parameter Standard
masalah multikolinearitas dengan menggunakan
estimate error t Value
metode PCR dan PLS.
115519965 39740014 2,91
b. Autokorelasi
X1 -0,86615 1,03329 -0,84
X2 3,60648 3,6006 1 Hipotesis:
X3 -2,6309 2,38674 -1,1 𝐻0 : Tidak terjadi autokorelasi
X4 1,6646 0,40515 4,11 𝐻0 : Terjadi autokorelasi
X5 0,95078 0,03853 24,68 Tingkat signifikansi 𝛼 = 0,05
x6 1,0347 0,08472 12,21 Kriteria:

122
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

Jika 𝑑 > 𝑑𝑢 , maka 𝐻0 diterima (tidak ada dan di bawah angka 0 pada sumbu Y maka tidak
autokorelasi). terjadi masalah heteroskedastisitas.
Jika 𝑑 < 𝑑𝐿 , maka 𝐻0 ditolak (ada autokorelasi
positif). 3. Principal Component Regression (PCR)
Jika 4 − 𝑑 > 𝑑𝑢 , maka 𝐻0 diterima (tidak ada a. Menentukan Komponen Utama
autokorelasi negatif).
Principal Component Regression (PCR)
Jika 4 − 𝑑 < 𝑑𝐿 , maka 𝐻0 ditolak (ada merupakan teknik analisis regresi yang
autokorelasi negatif). dikombinasikan dengan teknik analisis
. komponen utama, dimana analisis komponen
Tabel 4. Autokorelasi utama dijadikan sebagai tahap analisis. Oleh
karena itu, sebelum melakukan PCR terlebih
Durbin-Watson D 2,181
dahulu dilakukan analisis komponen utama
Number of Observations 35 untuk mendapatkan komponen-komponen
utama dan skor komponen utama yang berguna
Berdasarkan output SAS di atas diperoleh sebagai variabel-variabel independent dalam
nilai Durbin-Watson D sebesar 2,181. Langkah PCR. Langkah pertama adalah dengan melihat
selanjutnya menentukan nilai 𝑑𝐿 dan 𝑑𝑢 dengan nilai Communality yang menunjukkan berapa
taraf nyata 0,05, observasi sebanyak n = 35 data, varians yang dapat dijelaskan oleh komponen
dan K adalah jumlah variabel independentnya yang terbentuk. Hasil varians tersebut dapat
sebanyak 6, dengan melihat nilai tabel ditunjukan dalam tabel di bawah ini:
Durbin_Watson (dengan Taraf signifikansi 0,05)
maka diperoleh nilai 𝑑𝐿 = 1,097 sedangkan nilai Tabel 5. Final Communality Estimates
𝑑𝑢 = 1,884.Karena 𝑑 = 2,181 > 𝑑𝑢 = 1.884 maka Final Communality Estimates
𝐻0 diterima (tidak ada autokorelasi). X1 X2 X3 X4 X5 X6
c. Uji Heteroskedastisitas 0,880 0,812 0,924 0,936 0,904 0,719
Untuk mendeteksi ada tidaknya
heteroskedastisitas dengan melihat pola titik-titik Hasil yang diperoleh dari tabel 5
pada plots regresi. Jika titik-titik menyebar memperlihatkan bahwa nilai variabel 𝑋1 sebesar
dengan pola tidak jelas di atas dan di bawah 0,88 yang berarti sekitar 88 % variansi variabel
angka 0 pada sumbu Y maka tidak terjadi 𝑋1 dapat dijelaskan oleh komponen yang
masalah heteroskedastisitas. Berikut output plot terbentuk, variabel 𝑋2 sebesar 0,811 yang berarti
dari program SAS terlihat pada gambar 2. 81,1 % variansi variabel 𝑋2 dijelaskan oleh
komponen yang terbentuk, variabel 𝑋3 sebesar
Y = 1.16E8 -0.8662 X1 +3.6065 X2 -2.6309 X3 0,924 X4
+1.6646 yang berarti
+0.9508 92,4 %
X5 +1.0347 X6 variansi variabel 𝑋3
1.50E+08 N
35

1.00E+08 Rsq
0.9832
AdjRsq
5.00E+07 0.9797
RMSE
Residual

5.67E7
0.00E+00

-5.00E+07

-1.00E+08

-1.50E+08

5.00E+08 7.50E+08 1.00E+09 1.25E+09 1.50E+09 1.75E+09 2.00E+09 2.25E+09 2.50E+09 2.75E+09

Gambar 2. Plot Heteroskedastisitas.


Predicted Value

dijelaskan oleh komponen yang terbentuk,


variabel 𝑋4 sebesar 0,936 yang berarti 93,6 %
Gambar 2 dapat diketahui bahwa titik-titik variansi variabel 𝑋4 dijelaskan oleh komponen
menyebar dengan pola yang tidak jelas di atas yang terbentuk, variabel 𝑋5 sebesar 0,904 yang
berarti 90,4 % variansi variabel 𝑋5 dijelaskan

123
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

oleh komponen yang terbentuk, dan variabel 𝑋6 Tabel 7. Skor Komponen Utama
sebesar 0,719 yang berarti 71,9 % variansi
variabel 𝑋6 dijelaskan oleh komponen yang Scoring Coefficients factor
terbentuk. Factor1 Factor2
X1 0,28599 0,14405
Langkah selanjutnya adalah Eigenvalues of
X2 0,03591 0,56114
the Correlation Matrix dalam analisis faktor
terdapat beberapa komponen yang merupakan X3 0,3268 -0,1536
variabel. Setiap faktor mewakili variabel yang X4 0,33003 -0,0912
dianalisis. Kemampuan setiap faktor mewakili X5 0,18526 0,07292
variabel yang dianalisis ditunjukkan oleh X6 -0,0775 0,58999
besarnya varians yang dijelaskan, yang disebut
dengan eigenvalue. Eigenvalue menunjukkan Berdasar tabel 7, maka persamaan regresi
kepentingan relatif masing-masing faktor dalam komponen utama yang dapat dibentuk adalah
menghitung varians semua variabel yang sebagai berikut.
dianalisis. Susunan eigenvalue selalu diurutkan 𝐾1 = 0,28599 𝑋1 + 0,03591 𝑋2 + 0,32680 𝑋3
dari yang terbesar sampai yang terkecil, dengan + 0,33003 𝑋4 + 0,18526 𝑋5
kriteria bahwa angka eigenvalue di bawah 1 tidak − 0,07747𝑋6
digunakan dalam menghitung jumlah faktor 𝐾2 = 0,14405 𝑋1 + 0,56114 𝑋2 − 0,15359 𝑋3
yang terbentuk. − 0,09120 𝑋4 + 0,07292 𝑋5
+ 0,58999𝑋6
Tabel 6. Eigenvalues of the Correlation
Matrix
Setelah skor komponen terbentuk langkah
Eigenvalues of the Correlation Matrix selanjutnya adalah menentukan variabel-variabel
baru untuk menggantikan variabel-variabel 𝑋1 ,
Eigenvalue Difference Cumulative 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 dan 𝑋6 . Pembentukan komponen
yang terbentuk dengan cara menstandarisasikan
1 3,00854913 1,63430587 0,5014 semua variabel dan mengalikan dengan skor
2 1,37424326 0,57267512 0,7305 komponen utama. Maka variabel baru yang
3 0,80156814 0,19483842 0,8641 terbentuk seperti tabel 8.
4 0,60672971 0,42928168 0,9652 Variabel-variabel tersebut menunjukan
5 0,17744804 0,1459863 0,9948 bahwa dua komponen adalah jumlah yang
6 0,03146173 1 paling optimal untuk mereduksi ke-enam
variabel-variabel independent.
Pada tabel 6 terlihat bahwa angka eigenvalues b. Regresi Komponen Utama
di bawah 1 tidak dapat digunakan dalam
menghitung jumlah faktor yang terbentuk, Hubungan antara variabel-variabel
sehingga proses factoring seharusnya berhenti dependent dan variabel independent dapat
pada dua faktor saja. diketahui dengan melakukan analisis Principal
Component Regression (PCR). Dalam hal ini,
Eigenvalue di variabel 𝑋1 sebesar 3,008, variabel dependent (Y) anggaran pendapatan
artinya faktor ini dapat menjelaskan 50,14 % dari daerah Provinsi Jawa Tengah diregresikan
total cumulative dan variabel 𝑋2 sebesar 1,374 dengan variabel baru, yaitu variabel komponen
yang artinya faktor ini menjelaskan 73,05% dari utama yang terbentuk. Dengan demikian, model
total cumulative. regresi komponen utama yang dibangun untuk
kasus ini adalah :
Langkah selanjutnya adalah dengan
mencari nilai skor komponen yang terbentuk 𝑌 = 𝑊0 + 𝑊1 𝐾1 + 𝑊2 𝐾2 + 𝜀
untuk membentuk persamaan regresi komponen
utama. skor komponen ini nantinya akan Maka model persamaan persamaan yang
menentukan banyaknya variabel yang akan terbentuk pada tabel 9.
terbentuk untuk menggantikan variabel-variabel
𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 dan 𝑋6 dengan variabel baru.

124
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

Tabel 8. Variabel Baru

Factor 1 Factor 2 𝑌̂ = 1382126508 + 258988114𝐾1 + 149127143𝐾2


0,351735 1,432907
𝑌̂ = 1382126508 + 258988114 (0,28599 𝑋1 +
0,337589 1,587791 0,03591 𝑋2 + 0,32680 𝑋3 +
-0,24977 0,557758 0.33003 𝑋4 + 0.18526 𝑋5 −
-0,4089 -0,01168 0.07747𝑋6 ) +
149127143 (0.14405 𝑋1 + 0.56114 𝑋2 −
0,138951 -0,89797 0.15359 𝑋3 − 0.09120 𝑋4 +
-0,48721 -0,30175 0.07292 𝑋5 + 0.58999𝑋6 )
-0,31339 -0,59496 ̂
Y=1382126508+28888566.77X1 +84611231.43X2
0,114003 0,693008 -14440705.5X3 -5053009.86X4 -6076336.99X5
-89989904.2X6
0,011316 0,768867
Setelah diperoleh hasil regresi linear
-0,23544 0,784044 dugaannya, maka dilakukan pengecekan apakah
-0,03959 -0,30474 data masih mengandung multikolinearitas. Hal
-0,02198 -0,71316 ini dapat dilihat pada tabel 9 bahwa nilai
VIF=TOL=1 yang berarti tidak terjadi
0,766953 2,901944 multikolinearitas.
-0,26602 0,633214
-0,33751 1,115437 4. Partial Least Square (PLS)
-0,59022 0,071928 a. Pembentukan Komponen PLS pertama
-0,14045 -1,11048 Sebelum pembentukan komponen PLS
-0,23063 1,051383 pertama, terlebih dahulu dilakukan regresi y
terhadap masing-masing x untuk mengetahui
-0,35497 -0,27354
variabel-variabel manakah yang signifikan
-0,39793 0,156588 membangun komponen PLS pertama. Berikut
-0,44103 0,41592 adalah hasil regresi y (terstandarisasi) terhadap
masing-masing x.
-0,06746 0,357698
-0,49773 0,331697
Tabel 10 Uji Signifikansi
0,160377 -0,69028
Parameter Estimates
-0,19881 -0,27498
-0,52837 -1,10275 Parameter Standard
Variable t Value
-0,25125 0,898536 Estimate Error
0,01058 -0,37572
X1 3,98E-08 9,57E-09 4,16
0,126957 -1,23403 X2 1,36E-07 6,38E-08 2,12
-0,77816 -1,08327 X3 2,89E-08 9,24E-09 3,13
1,337884 0,483484 X4 6,24E-09 1,42E-09 4,39
X5 2,83E-09 2,59E-10 10,93
-0,70272 -1,31915 X6 3,15E-09 1,29E-09 2,45
5,22719 -1,19602
-0,53571 -1,24638 Uji signifikansi koefisien regresi pada Tabel
-0,50829 -1,51134 10 menunjukkan bahwa dengan taraf nyata 5%
semua variabel signifikan membangun
Tabel 9 Regresi Y Terhadap Komponen Utama komponen PLS pertama.
Parameter Estimates Pengambilan keputusan:
T hitung ≤ t kritis jadi 𝐻0 diterima
Parameter Standard
Variable TOL VIF T hitung > t kritis jadi 𝐻1 ditolak.
Estimate error
Titik kritis dapat dicari pada tabel statistik
Intercept 1382126508 45674516 . 0 pada signifikansi dengan 𝑑𝑓 = 𝑛 − 𝑘 − 1 maka
K1 258988114 46341335 1 1 𝑑𝑓 = 35 − 6 − 1 = 29 (k adalah jumlah variabel
K2 149127143 46341346 1 1 independent). Di dapat t kritis adalah 2,04523.

125
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

1 𝑝
𝑡1 = ∑ 𝑐𝑜𝑟(𝑥𝑗 , 𝑦)𝑥𝑗∗
2 𝑗=1 b. Pembentukan Komponen PLS kedua
√∑𝑝𝑗=1 𝑐𝑜𝑟(𝑥𝑗 , 𝑦)
Sebelum pembentukan komponen PLS
kedua, terlebih dahulu diperiksa apakah
Dimana 𝑥𝑗∗ adalah variabel independent yang komponen kedua ini masih diperlukan. Hal
telah distandarisasi, sehingga komponen PLS tersebut dilakukan dengan cara meregresikan
pertama yang terbentuk. antara y yang telah distandarisasi terhadap 𝑡1
𝑡1 = 0,385𝑋1∗ + 0,184𝑋2∗ + 0,340𝑋3∗ + 0,434𝑋4∗ dan masing-masing variabel 𝑥 . Variabel yang
+ 0,665𝑋5∗ + 0,271𝑋6∗ digunakan adalah variabel-variabel yang
Maka diperoleh nilai komponen PLS pertama signifikan membangun PLS kedua.
Tabel 11. Komponen PLS 1 Tabel 12 Uji Signifikansi
PLS1 Parameter Estimates
1,903781
1,765623 Parameter Standard
Variable t Value
-0,24876 Estimate Error
-0,52369
X1 -2,04E-08 6,21E-09 -3,28
0,266509 X2 5,47E-09 2,49E-08 0,22
-0,78432 X3 -3,91E-08 5,13E-09 -7,62
-0,69573 X4 -6,14E-09 1,34E-09 -4,58
0,524041 X5 1,65E-09 2,94E-10 -5,61
X6 1,77E-09 6,21E-10 2,01
0,712924
0,544488 Berdasarkan tabel 12, ternyata tidak ada
-0,36787 variabel yang signifikan yaitu
-0,04235 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 𝑑𝑎𝑛 𝑋6 < dari t kritis 2,04523,
-0,10292 sehingga perhitungan berhenti pada komponen
0,069222 PLS pertama. Setelah mendapatkan komponen
baru pada tabel 11, kemudian variabel y
0,23434
diregresikan terhadap komponen PLS yang
-0,75894 terbentuk. Berikut hasil regresi yang diperoleh:
-0,73036
0,572452 Tabel 13 Regresi Y Terhadap Variabel PLS
-0,49633 Parameter Estimates
-0,368 Parameter Standard
Variable TOL VIF
-0,32267 Estimate error
0,060653 Intercept 1382126382 32340470 . 0
-0,88761 PLS1 227404292 30760787 1 1
0,114955
-0,59971 𝑌̂ = 1382126382 + 218046820 𝑃𝐿𝑆1𝑌̂
-1,3015 𝑌̂ = 1382126382 + 218046820 (0,385𝑋1∗
0,232918 + 0,184𝑋2∗ + 0,340𝑋3∗
0,375152 + 0,434𝑋4∗ + 0,665𝑋5∗
0,315051 + 0,271𝑋6∗
-2,29032 𝑌̂ = 1382126382 + 83948025,7𝑋1
+ 40120614,88𝑋2
1,947366
+ 74135918,8𝑋3
-2,29342 + 94632319,88𝑋4
7,132047 + 145001135,3𝑋5
-1,94483 + 59090688,22𝑋6
-2,01218

126
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

Setelah diperoleh hasil regresi linear -14440705,5X3 -5053009,86X4 -6076336,99X5 -


dugaannya, maka dilakukan pengecekan apakah 89989904,2X6 (3) Perbandingan metode
data masih mengandung multikolinearitas. Hal manakah antara Partial Least Square (PLS) dan
ini dapat dilihat pada tabel 13 bahwa nilai Principal Component Regression (PCR) untuk
VIF=TOL=1 yang berarti tidak terjadi mengatasi multikolinearitas yang lebih baik
multikolinearitas. dilihat dari nilai 𝑅2 dan nilai MSE. dapat dilihat
bahwa nilai 𝑅2 yang dihasilkan PLS = 0,7752
5. Pemilihan Metode Terbaik lebih besar dibandingkan dengan PCR = 0,5652
dan nilai MSE yang dihasilkan PLS =
Pemilihan model terbaik untuk mengatasi 3,660671E16 lebih kecil dibandingkan dengan
masalah multikolinearitas PCR dan PLS adalah PCR = 7,301565E16 maka dapat disimpulkan
membandingkan hasil persamaan regresi yang bahwa metode PLS lebih baik dibandingkan
diperoleh antara kedua metode tersebut. dengan metode PCR dalam mengatasi masalah
Koefisien determinasi 𝑅2 dapat digunakan untuk multikolinearitas.
menentukan model terbaik. Semakin nilai 𝑅2
mendekati satu maka semakin tinggi pengaruh DAFTAR PUSTAKA
variabel independent terhadap variabel dependent,
Abdi, H. 2010. Partial Least Square (PLS)
yang berarti semakin baik kecocokan model Regression and Projrction On Latent
dengan data. Selain melihat nilai 𝑅2 pemilihan Structure Regression. Encyclopedia of Social
model terbaik juga dapat dilakukan dengan Sciences Research Methods.
melihat nilai Mean Square Error (MSE). Metode
terbaik adalah metode dengan nilai MSE Draper, H., & Smith, H. 1992. Applied Regression
Analysis, 2nd. (Analisis Regresi Terapan Edisi
terkecil. Perbandingan nilai 𝑅2 dan MSE dari
Ke-2). Penerjemah : Bambang Sumantri.
metode PLS dan PCR adalah sebagi berikut:
Jakarta:PT. Gramedia Pustaka Utama.
Tabel 14 Nilai 𝑅2 dan MSE Farahani, A, Rahiminezhed H., Same A.L, &
Immannezhed, K. 2010. A Comparison of
Metode 𝑅2 MSE Partial Least Square (PLS) and Ordinary
PLS 0,7752 3,660671E16 Least Square (OLS) regressions in predicting
of couples mental health based on their
PCR 0,5652 7,301565E16 communicational patterns. Procedia.
Gujarati, D. 2004. Ekonometrika Dasar. Sumarno
Berdasarkan tabel 14 dapat dilihat bahwa Zain Penerjemah. Jakarta: Erlangga.
nilai 𝑅2 yang dihasilkan PLS dengan nilai 𝑅2 = Terjemahan dari: Basic Econometrics.
0,7752 lebih besar dibandingkan PCR dengan Johnson, R.A., Wichern, D.W. 2010. Applied
nilai 𝑅2 = 0,5652 dan nilai MSE yang dihasilkan Multivariate Statistical Analysis. Sixth edition,
PLS sebesar 3,660671E16 lebih kecil Prentice Hall. New Jersey.
dibandingkan dengan nilai MSE PCR sebesar
Nurhasanah, Subianto, M. & Fitriani, R. 2012.
7,301565E16 maka dapat disimpulkan bahwa
Perbandingan Metode Partial Least Square
metode PLS lebih baik dibandingkan dengan
(PLS) dengan Regresi Komponen Utama
metode PCR dalam mengatasi masalah
untuk Mengatasi Multikolinearitas. Jurusan
multikolinearitas.
Matematika FMIPA UNSYIAH, Statistika,12
(1): 33 – 42.
SIMPULAN
Saikia 2014. Estimation of Principal
Simpulan yang diperoleh dari penelitian ini
Components Regression Coefficients.
adalah (1) Model persamaan dengan metode
International of Science and Research (IJSR).
Partial Least Square (PLS) pada kasus pendapatan
anggaran Daerah Provinsi Jawa Tengah sebagai Soemartini. 2008. Penyelesaian Multikolinearitas
berikut. Melalui Ridge Regression. Tesis. Universitas
̂
Y=1382126382+83948025,7X1 +40120614,88X2 Padjajaran.
+74135918,8X3 +94632319,88X4 + Sukmono, A. 2014. Penggunaan Partial Least
145001135,3X5 +59090688,22X6 (2) Model Square Regression (PLSR) untuk Mengatasi
persamaan dengan metode Principal Component Multikolinearitas Dalam Estimasi Klorofil Daun
Regression (PCR) pada kasus pendapatan Tanaman Padi dengan Citra Hiperspektral.
anggaran Daerah Provinsi Jawa Tengah sebagai Program Studi Teknik Geodesi, Fakultas
berikut. Teknik, Universitas Diponegoro.
̂
Y= 1382126508+28888566,77X1 +84611231,43X2

127
E. Supriyadi et al./ UNNES Journal of Mathematics 6(2)(2017)

Tazliqoh, A,H. Rahmawati,H, & Safitri,D. 2015.


Perbandingan Regresi Komponen Utama
Regresi Ridge Pada Analisis Faktor-Faktor
Pendapatan Asli Daerah (PAD) Provinsi
Jawa Tengah. Jurnal Gaussian.
Widarjono, A. 2007. Ekonometrika Teori dan
Aplikasi untuk Ekonomi dan Bisnis.
Yogyakarta: Ekonisia FE UII.
Vinzi, V. Bastien, P. & Tenenhaus, M. 2004.
Partial Least Square Generalized Linear
Regression. Computational statistics & Data
Analysis (2005).

128

Anda mungkin juga menyukai