Anda di halaman 1dari 9

E-Jurnal Matematika Vol. 3, No.

1 Januari 2014, 8-16 ISSN: 2303-1751

PENERAPAN REGRESI AKAR LATEN DALAM MENANGANI


MULTIKOLINEARITAS PADA MODEL REGRESI LINIER
BERGANDA

DWI LARAS RIYANTINI1, MADE SUSILAWATI2, KARTIKA SARI3

1,2,3
Jurusan Matematika FMIPA Universitas Udayana, Bukit Jimbaran-Bali
e-mail: 1dwie_rianti@yahoo.com,2susilawati.made@gmail.com,
3
sari_kaartika@yahoo.co.id

Abstract
Multicollinearity is a problem that often occurs in multiple linear regression. The existence
of multicollinearity in the independent variables resulted in a regression model obtained is far from
accurate. Latent root regression is an alternative in dealing with the presence of multicollinearity in
multiple linear regression. In the latent root regression, multicollinearity was overcome by reducing
the original variables into new variables through principal component analysis techniques. In this
regression the estimation of parameters is modified least squares method. In this study, the data
used are eleven groups of simulated data with varying number of independent variables. Based on
the VIF value and the value of correlation, latent root regression is capable of handling
multicollinearity completely. On the other hand, a regression model that was obtained by latent root
2
regression has 𝑅𝑎𝑑𝑗 value of 0.99, which indicates that the independent variables can explain the
diversity of the response variables accurately.

Keywords: Multiple Linear Regression, Multicollinearity, Latent Root Regression, Least Squares
Method Modified

linier berganda (Myers & Milton, 1991).


1. Pendahuluan Dalam analisis regresi linier berganda,
Analisis regresi adalah suatu alat statistik permasalahan yang sering muncul adalah
yang dapat digunakan untuk melihat hubungan adanya multikolinieritas.
sebab akibat. Dalam analisis regresi terdapat Multikolinearitas ditandai dengan adanya
peubah bebas dan peubah tak bebas. Peubah korelasi di antara peubah-peubah bebas.
bebas dapat diukur, sedangkan peubah tak Adanya multikolinearitas pada peubah-peubah
bebas atau yang juga disebut dengan peubah bebas mengakibatkan model regresi yang
respon dijelaskan oleh satu atau lebih peubah diperoleh jauh dari akurat, diantaranya
bebas. Pada analisis regresi linier, peubah pengujian hipotesis parameter berdasarkan
responnya memiliki skala pengukuran minimal metode kuadrat terkecil (ordinary least square)
interval. Berdasarkan banyak peubah bebas memberikan hasil yang tidak valid yaitu
yang digunakan, analisis regresi linier dibagi peubah-peubah bebas yang seharusnya
menjadi dua yaitu analisis regresi linear berpengaruh signifikan terhadap peubah respon
sederhana dan analisis regresi linear berganda. dinyatakan sebaliknya secara statistik, tanda
Analisis regresi linier yang hanya melibatkan koefisien regresi dugaan yang dihasilkan
satu peubah bebas disebut analisis regresi linier bertentangan dengan kondisi aktual, penduga
sederhana, sedangkan analisis regresi linier koefisien regresi bersifat tidak stabil sehingga
dengan peubah respon dipengaruhi oleh lebih mengakibatkan sulitnya menduga nilai-nilai
dari satu peubah bebas disebut analisis regresi peubah respon yang tentunya akan

1Mahasiswa Jurusan Matematika FMIPA Universitas Udayana 8


2,3Staf Pengajar Jurusan Matematika FMIPA Universitas Udayana
E-Jurnal Matematika Vol. 3, No.1 Januari 2014, 8-16 ISSN: 2303-1751

mengakibatkan tidak akuratnya peramalan bisa diramalkan dari peubah bebas


(Gujarati, 1995). (independent variable) (Neter, 1997). Selain
Terdapat beberapa metode untuk untuk melihat hubungan antara peubah bebas
mengatasi adanya multikolinearitas dalam dengan peubah respon, analisis regresi juga
regresi linier berganda, salah satunya adalah bertujuan untuk melihat kontribusi relatif dari
dengan menggunakan regresi komponen utama masing-masing peubah bebas terhadap peubah
(principal component regression). Pada regresi respon.
komponen utama, peubah-peubah bebas yang Pola atau bentuk hubungan pada analisis
saling berkorelasi diubah ke dalam bentuk regresi dapat dinyatakan dalam bentuk
peubah-peubah baru yang tidak saling persamaan regresi. Model regresi linier yang
berkorelasi tanpa kehilangan banyak informasi melibatkan lebih dari satu peubah bebas
dari peubah asal dan disebut dengan komponen dengan satu peubah respon disebut model
utama. Teknik meregresikan komponen utama regresi linier berganda. Analisis regresi linier
dengan peubah respon melalui metode kuadrat berganda sangat berguna di dalam situasi
terkecil disebut regresi komponen utama percobaan yang memungkinkan peneliti
(Gujarati, 1995). Pemilihan komponen utama mengontrol peubah-peubah bebasnya.
pada regresi komponen utama adalah dengan
memilih komponen utama yang memiliki akar 1.1.1 Model Ordo-Pertama
ciri lebih besar dari 1 (Draper & H. Smith, Misalkan terdapat n tripel data
1992). Akan tetapi, proses ini memungkinkan (𝑦1 , 𝑥11 , 𝑥12 ), (𝑦2 , 𝑥21 , 𝑥22 ),… , (𝑦𝑛 , 𝑥𝑛1 , 𝑥𝑛2 ),
komponen utama yang berguna untuk prediksi (Neter, 1997) maka model regresinya dapat
terhadap peubah respon akan terabaikan, dinyatakan sebagai:
karena pembentukan komponen utama yang 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + 𝑒𝑖 (1)
tidak melibatkan informasi dari peubah respon dengan:
(Vigneau, E., Qannari, E.M., 2002). 𝑦𝑖 adalah respon dari amatan ke-i,
Perluasan regresi komponen utama 𝛽0 , 𝛽1 , dan 𝛽2 adalah koefisien regresi,
diajukan oleh J.T. Webster et. al, dalam “Latent 𝑒𝑖 adalah suku galat ke-i,
root regression analysis”, Technometrics, 16, i = 1,2,…n.
1974. Webster dan rekan kerjanya 𝑦1 𝑒1
menggandengkan matriks data yang berasal 𝑦2 𝑒2
Jika 𝑌 = [ ⋮ ] , 𝜀 = [ ⋮ ] maka persamaan
dari peubah respon yang telah dibakukan dan
𝑦𝑛 𝑒𝑛
peubah bebas yang telah dibakukan. Perluasan
(1) dengan 𝑖 = 1,2, … , 𝑛 dapat ditulis sebagai:
ini dinamakan regresi akar laten (Draper & H.
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜀 (2)
Smith, 1992). Perbedaan regresi akar laten
dibandingkan regresi komponen utama adalah Persamaan (2) dinamakan model ordo-pertama
𝑥11
komponen utama yang terbentuk pada regresi 𝑥21
akar laten diperoleh dengan menghitung dengan dua peubah bebas, yaitu 𝑋1 = [ ⋮ ]
hubungan antara peubah bebas dan peubah 𝑥𝑛1
respon, sehingga komponen utama pada regresi 𝑥12
akar laten lebih banyak mengandung informasi 𝑥22
dan 𝑋2 = [ ⋮ ]. Model ini bersifat linier dalam
dibandingkan regresi komponen utama
𝑥𝑛2
(Vigneau, E., Qannari, E.M., 2002).
parameter dan juga linier dalam peubah-peubah
bebasnya.
1.1 Analisis Regresi Linier
Apabila diasumsikan 𝐸{𝜀𝑖 } = 0, maka
Analisis regresi adalah suatu metode
fungsi respon bagi model (2) adalah (Neter,
dalam statistik yang memanfaatkan hubungan
1997):
antara dua atau lebih peubah kuantitatif,
𝐸{𝑌} = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 (3)
sehingga peubah respon (dependent variable)

9
Dwi Laras Riyantini, Made Susilawati, Kartika Sari Penerapan Regresi Akar Laten dalam Menangani
Multikolinearitas

Pada model regresi (3), parameter 𝛽0 adalah Adapun fungsi respon (Neter, 1997) untuk
intersep Y pada bidang regresi tersebut. Nilai model (5) adalah:
parameter 𝛽0 melambangkan rataan respon, 𝐸{𝑌} = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ +
apabila peubah bebas 𝑋1 dan 𝑋2 bernilai 0. Jika 𝛽𝑝−1 𝑋𝑝−1 (6)
tidak demikian, 𝛽0 tidak memiliki makna di
dalam model regresi tersebut. Parameter 𝛽1 1.2 Koefisien Determinasi Ganda
menunjukkan perubahaan rataan respon untuk Terkoreksi
setiap kenaikan 𝑋1 satu satuan apabila 𝑋2
dipertahankan konstan. Begitu pula, parameter Dalam regresi linear berganda, proporsi
𝛽2 menunjukkan perubahan rataan respon keragaman data yang dapat diterangkan dalam
untuk setiap kenaikan 𝑋2 satu satuan, apabila model regresi dilihat dari koefisien determinasi
2
𝑋1 dipertahankan konstan. Parameter 𝛽1 dan 𝛽2 ganda yang dilambangkan dengan 𝑅𝛼𝑑𝑗 .
sering disebut koefisien regresi parsial. (Neter, 1997) Koefisien determinasi ganda
Peubah bebas 𝑋1 dan 𝑋2 dikatakan terkoreksi didefinisikan sebagai berikut:
memiliki pengaruh aditif atau tidak 2 𝐽𝐾𝐺/(𝑛−𝑝)
𝑅𝛼𝑑𝑗 =1− (7)
𝐽𝐾𝑇/(𝑛−1)
berinteraksi, apabila pengaruh 𝑋1 terhadap 2 2
rataan respon tidak bergantung pada taraf 𝑋2 , Interval nilai 𝑅𝛼𝑑𝑗 adalah 0 ≤ 𝑅𝛼𝑑𝑗 ≤ 1.
2
dan sebagai akibatnya pengaruh 𝑋2 terhadap Jika nilai 𝑅𝛼𝑑𝑗 semakin mendekati 1, maka
respon juga tidak bergantung pada taraf 𝑋1 semakin besar nilai keragaman data peubah
(Neter, 1997). respon yang dapat dijelaskan oleh peubah
Sebagai generalisasi dari model ordo- bebas.
pertama dengan dua peubah bebas berikut ini
dibahas model ordo-pertama dengan lebih dari 1.3 Multikolinearitas
dua peubah bebas. Oleh karena itu, apabila Istilah multikolinearitas pertama kali
terdapat 𝑝 − 1 peubah bebas 𝑋1 = diperkenalkan oleh Ragnar Frisch pada tahun
𝑥11 𝑥12 𝑥1,𝑝−1 1934, yang berarti adanya korelasi di antara
𝑥21 𝑥22 𝑥2,𝑝−1 peubah – peubah bebas dari model regresi.
[ ⋮ ] , 𝑋2 = [ ⋮ ] , … , 𝑋𝑝−1 = [ ⋮ ], maka
Multikolinearitas dapat memberi dampak
𝑥𝑛1 𝑥𝑛2 𝑥𝑛,𝑝−1 untuk model regresi, antara lain (Neter, 1997):
modelnya [4] adalah: 1. Multikolinearitas antara peubah-peubah
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑝−1 𝑥𝑖,𝑝−1 + bebas dalam model regresi linier
𝑒𝑖 (4) mengakibatkan variansi penduga kuadrat
dengan : terkecil menjadi besar sehingga
p banyaknya parameter, menghasilkan galat baku yang lebih besar.
𝛽0 , 𝛽1 , … , 𝛽𝑝−1 adalah parameter, Hal ini mengakibatkan selang kepercayaan
𝑥𝑖1 , 𝑥𝑖2 , … , 𝑥𝑖,𝑝−1 adalah peubah bebas untuk parameter model regresi menjadi
yang diketahui nilainya, lebih besar.
𝑒𝑖 adalah suku galat, 2. Satu atau lebih peubah bebas menjelaskan
𝑖 = 1,2, … , 𝑛, peubah respon benar-benar sama dengan
𝑛 adalah banyak amatan. yang dijelaskan oleh peubah bebas lain.
𝑦1 𝑒1 3. Pengujian hipotesis parameter berdasarkan
𝑦2 𝑒2 metode kuadrat terkecil memberikan hasil
Jika 𝑌 = [ ⋮ ] , 𝜀 = [ ⋮ ] maka persamaan
yang tidak valid.
𝑦𝑛 𝑒𝑛 Pada analisis regresi, dikatakan terdapat
(4) dengan 𝑖 = 1,2, … , 𝑛 dapat ditulis sebagai: multikolinearitas apabila terdapat beberapa
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑝−1 𝑋𝑝−1 + 𝜀 kondisi sebagai berikut:
(5)

10
E-Jurnal Matematika Vol. 3, No.1 Januari 2014, 8-16 ISSN: 2303-1751

1. Nilai korelasi antar peubah bebas (𝑟𝑋𝑌 ) kombinasi linier dari peubah bebas. Langkah
melebihi 0,5 (Gujarati, 1995) Misalkan selanjutnya, beberapa komponen utama yang
(𝑥1 , 𝑦1 ), … , (𝑥𝑛 , 𝑦𝑛 ), pasangan data yang terbentuk diregresikan dengan peubah respon
𝑥1 melalui analisis regresi (Myers & Milton,
𝑥2 1991). Kriteria pemilihan komponen utama
diperoleh dari dua peubah acak 𝑋 = [ ⋮ ]
yang akan digunakan yaitu dengan memilih
𝑥𝑛
𝑦1 komponen utama yang bersesuaian dengan akar
𝑦2 ciri lebih besar dari 1 (Draper, N.R. and H.
dan 𝑌 = [ ⋮ ]. Nilai korelasi tersebut Smith, 1992)
𝑦𝑛
diperoleh melalui rumus [7] sebagai 1.5 Regresi Akar Laten (Latent Root
berikut: Regression)
∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )(𝑦𝑖 −𝑦
̅) Metode regresi akar laten merupakan
𝑟𝑋𝑌 = 1 (8)
[∑𝑛 2 𝑛 ̅)2 ]2
𝑖=1(𝑥𝑖 −𝑥̅ ) ∑𝑖=1(𝑦𝑖 −𝑦
perluasan dari regresi komponen utama.
Perbedaan kedua metode ini terletak pada nilai
Dalam hal ini X dan Y dianggap setara, akar laten yang dihasilkan dari matriks korelasi
tidak dipersoalkan apakah X dan Y yang yang dihasilkan. Pada regresi akar laten,
menjadi peubah bebas atau peubah respon. matriks korelasi diperoleh dari penggabungan
2. Nilai VIF lebih dari 4 (O’Brien, 2007) peubah respon yang telah dibakukan dan
Variance Inflation Factor (VIF) atau peubah bebas yang telah dibakukan, yang dapat
faktor inflasi ragam dapat ditulis sebagai berikut (Draper, N.R. and H.
menginterpretasikan akibat dari korelasi Smith, 1992):
antar variabel bebas ke-𝑖 pada varians
penduga koefisien regresi. Adapun 𝒁∗ = [𝒁𝒚 , 𝒁] (10)
perhitungan VIF sebagai berikut (Neter, dengan 𝒁𝒚 dan 𝒁 secara berturut-turut
1997): merupakan matriks Y dan X yang telah
1
𝑉𝐼𝐹(𝑖) = 1−𝑅2 (9) dipusatkan dan diskalakan (dibakukan).
𝑖
Pembakuan data pada peubah respon diperoleh
Nilai 1 − 𝑅𝑖2 menunjukkan nilai toleransi
melalui rumus:
yang mewakili varians dari peubah bebas 𝑦1
ke-𝑖 yang tidak dihubungkan dengan (𝒀−𝟏𝑦̅) 𝑦2
peubah bebas lain pada model, sehingga 𝑍𝑦 = dengan 𝒀 = [ ⋮ ],
√𝑆𝑌𝑌
nilai toleransi berbanding terbalik dengan 𝑦𝑛
nilai VIF. Nilai 𝑅𝑖2 menunjukkan nilai 1
∑𝑛 𝑦𝑖 1 (𝒀−𝟏𝑦̅)𝑇 (𝒀−𝟏𝑦̅)
korelasi antar peubah, kenaikan korelasi 𝑦̅ = 𝑖=1 , 𝟏 = [ ], 𝑆𝑌𝑌 =
𝑛 ⋮ 𝑛−1
antar peubah akan mengakibatkan
1
kenaikan nilai VIF yang menunjukkan (11)
terjadinya multikolinearitas. Jika 𝑅𝑖2 = 0 sedangkan, Pembakuan data pada peubah bebas
atau 𝑉𝐼𝐹 = 1, mengindikasikan bahwa diperoleh melalui rumus:
peubah bebas ke-𝑖 orthogonal dengan (𝑿−𝟏𝑥̅ )
𝑍= dengan
peubah bebas lainnya. √𝑆𝑋𝑋
𝑥11 𝑥12 … 𝑥1,𝑝−1
𝑥21 𝑥22 … 𝑥2,𝑝−1 ∑𝑛𝑖=1 𝑥𝑖
1.4 Regresi Komponen Utama 𝑿=[ ⋮ ⋮ ⋱ ⋮ ], 𝑥̅ = 𝑛 ,
Regresi komponen utama merupakan
𝑥𝑛1 𝑥𝑛2 … 𝑥𝑛,𝑝−1
salah satu metode yang dapat digunakan untuk
menangani multikolinearitas. Tahap pertama
pada regresi komponen utama adalah
menghitung komponen utama yang merupakan

11
Dwi Laras Riyantini, Made Susilawati, Kartika Sari Penerapan Regresi Akar Laten dalam Menangani
Multikolinearitas

1 1 … 1 variansi dalam 𝑌 (Sharma, S., James, W.L.,


1 1 … 1
𝟏=[ ] , 1986). Oleh karena itu, Webster menyarankan
⋮ ⋮ ⋱ ⋮
… akar laten 𝜆𝑗 ≤ 0.05 atau unsur pertama
1 1 1 𝑛×𝑝−1
(𝑋−𝟏𝑥̅ )𝑇 (𝑋−𝟏𝑥̅ )
vektor laten padanannya | 𝛾0𝑗 | < 0.10,
𝑆𝑋𝑋 = 𝑛−1
(12) disarankan untuk dibuang.
Untuk matriks Y dan X seperti pada persamaan Selanjutnya dihitung vektor koefisien
(10), setelah matriks Y dan X dibakukan, kuadrat terkecil termodifikasinya (Webster, et
maka: al. 1974) dengan rumus:
𝑍1𝑦 𝑍11 … 𝑍1,𝑝−1 𝛽1∗ 𝛾1𝑗
𝑍 𝑍 … 𝑍 𝛽 ∗ 𝛾2𝑗
𝒁∗ = 2𝑦 21 ⋱ 2,𝑝−1 𝜷∗ = [ 2 ] = 𝑐 ∑∗𝑗 𝛾0𝑗 𝜆𝑗−1 [ ⋮ ] ; (15)
⋮ ⋮ ⋮ ⋮
𝑍 𝑍
[ 𝑛𝑦 𝑛1 … 𝑍𝑛,𝑝−1 ] 𝛽𝑝∗ 𝛾𝑛𝑝
−1
Langkah berikutnya adalah melakukan 𝑐 = −{∑∗𝑗 𝛾0𝑗 𝜆𝑗−1 } {∑𝑛𝑖=1(𝑌𝑖 − 𝑌̅)2 }1/2
analisis komponen utama berdasarkan matriks (16)
𝒁∗ . Seperti halnya dalam analisis komponen dengan:
utama, akar laten dan vektor latennya 𝜆𝑗 adalah akar laten ke-j dari matriks 𝒁∗𝑻 𝒁
kemudian dihitung dari matriks korelasi
𝛾𝑗 adalah elemen vektor laten ke-j
gandengan 𝒁∗𝑻 𝒁∗
𝛾0𝑗 adalah elemen pertama dari vektor
Misalkan Γ𝑗𝑇 = (𝛾𝑜𝑗, 𝛾1𝑗, 𝛾2𝑗 , … , 𝛾𝑟𝑗 )
laten ke-j
merupakan vektor laten dari matriks 𝒁∗𝑻 𝒁∗ dan
𝑗 = 0,1,2, … , 𝑝
Γ𝑗0 = (𝛾1𝑗, 𝛾2𝑗 , … , 𝛾𝑟𝑗 ) merupakan vektor yang Selanjutnya, pendugaan koefisien regresi
terbentuk dari elemen yang sama dengan Γ𝑗𝑇 pada peubah awal diperoleh dengan membagi
kecuali elemen pertama yang telah dibuang, penduga koefisien regresi pada peubah yang
maka komponen utama (Sharma, S., James, telah dibakukan dengan 𝑆𝑗 , (Draper, N.R. and
W.L., 1986) dari 𝒁∗ adalah: H. Smith, 1992) sehingga diperoleh:
𝐶𝑗 = 𝒁∗ Γ𝑗 (13) 𝛽𝑗∗ 2
yang dapat dituliskan sebagai: 𝛽𝑗 = 𝑆𝑗
dengan 𝑆𝑗 = √∑(𝑥𝑗 − 𝑥̅𝑗 ) ,
𝐶𝑗 = 𝛾0𝑗 𝒁𝒚 + 𝒁Γ𝑗0 (14) 𝑗 = 1,2, … , 𝑝 − 1 (17)
Pada regresi akar laten, unsur pertama Sedangkan, perhitungan koefisien regresi 𝛽0
koefisien 𝑌 (𝛾0𝑗 ) setiap vektor laten digunakan (Draper, N.R. and H. Smith, 1992) diperoleh
untuk meramalkan peubah responnya oleh berdasarkan rumus:
vektor laten tersebut. Untuk menentukan 𝛽0 = 𝑦̅ − 𝛽1 𝑥̅1 − 𝛽2 𝑥̅2 − 𝛽3 𝑥̅3 − 𝛽4 𝑥̅4 (18)
komponen utama yang akan digunakan, yaitu Setelah persamaan kuadrat terkecil
dengan membuang komponen utama yang termodifikasinya diperoleh, Webster dan rekan-
bersesuaian dengan nilai akar laten 𝜆𝑗 ≤ 0.05 rekannya menyarankan untuk melakukan
eliminasi langkah mundur untuk mengeluarkan
atau elemen pertama vektor laten | 𝛾0𝑗 | <
peubah peramal dari persamaan itu (Webster, et
0.10 (Vigneau, E., Qannari, E.M., 2002).
al. 1974).
Adanya akar laten yang kecil menandakan
adanya kemungkinan ketergantungan atau
2. Metode Penelitian
ketidakbebasan linear di antara peubah-peubah
bebas. Semakin kecil akar laten, semakin kuat Jenis data yang digunakan dalam
ke tidak bebas linearan tersebut. Akar laten penelitian ini adalah data sekunder berupa
yang bernilai 0 menandakan adanya simulasi yang terdiri dari sebelas kelompok
singularitas, dan nilai 0 pada elemen pertama data dengan banyak peubah bebas bervariasi.
dari suatu vektor laten menunjukkan bahwa Program yang digunakan dalam penelitian ini
vektor laten tersebut tidak memiliki kontribusi

12
E-Jurnal Matematika Vol. 3, No.1 Januari 2014, 8-16 ISSN: 2303-1751

adalah program Microsoft Excel dan Minitab Tabel 1. Model Regresi Linier Berganda
15. Mdl Model Regresi Linier Berganda
Adapun tahap analisis data menggunakan I 𝑌 = 2,00 + 0,00 𝑋1 + 1,00𝑋2 +
0,00𝑋3 + 2,00𝑋4
regresi akar laten dengan langkah-langkah II 𝑌 = 10,2 + 1,15 𝑋1 + 1,02𝑋2 +
sebagai berikut: 1,27𝑋3 + 0,737𝑋4 + 0,925𝑋5
a. Melakukan pembakuan data pada peubah III 𝑌 = 2,00 + 1,00 𝑋1 + 1,00𝑋2 +
respon dan peubah bebas secara berturut- 1,00𝑋3 + 1,0𝑋4 + 2,00𝑋5
IV 𝑌 = 6,13 + 1,04 𝑋1 + 1,01𝑋2 +
turut melalui persamaan (11) dan (12)
1,06𝑋3 + 0,945𝑋4 + 0,953𝑋5 +
dengan bantuan program Microsoft Excel. 0,975𝑋6
b. Memasangkan matriks data yang berasal V 𝑌 = 2,00 + 1,00 𝑋1 + 1,00𝑋2 +
dari peubah bebas dan peubah respon yang 1,00𝑋3 +1,00𝑋4 + 1,00𝑋5 +
telah dibakukan. 2,00𝑋6
VI 𝑌 = −2,53 + 0,823 𝑋1 + 0,973𝑋2 +
𝒁∗ = [𝒁𝒚 , 𝒁] 0,984𝑋3 + 1,06𝑋4 + 1,10𝑋5 +
c. Menghitung akar laten 𝜆𝑗 dan vektor laten 0,991𝑋6
VII 𝑌 = 2,00 + 1,00 𝑋1 + 1,00𝑋2 −
padanannya 𝛤𝑗 dari matriks korelasi 𝒁∗𝑻 𝒁∗
1,00𝑋3 + 1,00𝑋4 + 1,00𝑋5 +
dengan bantuan Program Minitab 15. 2,00𝑋6
d. Melakukan pembentukan komponen VIII 𝑌 = −6,85 + 1,42 𝑋1 + 1,01𝑋2 +
utama melalui analisis komponen utama 1,15𝑋3 + 1,07𝑋4 + 1,03𝑋5 +
1,02𝑋6 + 1,00𝑋7 + 0,792𝑋8
berdasarkan akar laten 𝜆𝑗 dan vektor laten
IX 𝑌 = −5,85 + 1,38 𝑋1 + 1,00𝑋2 +
padanannya 𝛤𝑗 yang telah terbentuk pada 1,28𝑋3 + 0,861𝑋4 + 1,21𝑋5 +
program Minitab15. 0,886𝑋6 + 1,01𝑋7 + 0,907𝑋8
e. Memilih komponen utama yang X 𝑌 = 3,91 − 0,108 𝑋1 + 0,982𝑋2 +
0,607𝑋3 + 1,29𝑋4 + 1,27𝑋5 +
digunakan dengan membuang komponen 0,955𝑋6 + 1,01𝑋7 + 1,13𝑋8
utama yang mempunyai nilai akar laten XI 𝑌 = 3,89 + 0,614 𝑋1 + 0,985𝑋2 +
𝜆𝑗 ≤ 0.05 dan elemen pertama vektor 0,667𝑋3 +1,16𝑋4 + 1,21𝑋5 +
1,11𝑋6 + 1,02𝑋7 + 0,913𝑋8
laten | 𝛾0𝑗 | < 0.10 (Webster, et al., 1974).
f. Berdasarkan langkah (e), komponen utama Berdasarkan Tabel 1, model regresi linier I
yang telah ditentukan diregresikan dengan yang terbentuk adalah:
peubah respon. 𝑌 = 2,00 − 0,000000𝑋1 + 1,00𝑋2 +
g. Menghitung nilai VIF dan nilai korelasi 0,000000𝑋3 + 2,00𝑋4
antar peubah untuk mendeteksi apakah Model tersebut menginterpretasikan bahwa
masalah multikolinearitas sudah teratasi. apabila semua peubah bebas diasumsikan
h. Melakukan pendugaan koefisien regresi konstan, maka peubah respon akan bernilai
pada data yang dibakukan melalui 2,00. Peubah respon tidak mengalami
persamaan (15) dan (16). perubahan setiap kenaikan 𝑋1 satu satuan
i. Melakukan pendugaan koefisien regresi selama 𝑋2 , 𝑋3 , 𝑋4 dipertahankan konstan.
pada peubah awal melalui persamaan (17) Peubah respon akan meningkat sebesar 1,00
dan (18). satuan setiap kenaikan 𝑋2 satu satuan selama
𝑋1 , 𝑋3 , 𝑋4 dipertahankan konstan. Interpretasi
3. Hasil dan Pembahasan peubah bebas 𝑋3 dan 𝑋4 dapat dilakukan
Hasil analisis regresi linier berganda dengan dengan cara yang sama. Model regresi lainnya
menggunakan metode kuadrat terkecil pada dapat diinterpretasi dengan cara yang sama.
sebelas kelompok data yang digunakan dapat Untuk mendeteksi adanya
dilihat pada Tabel 1. multikolinearitas pada peubah bebas dapat
dilihat berdasarkan nilai korelasi dan nilai VIF.
Untuk model regresi I, nilai korelasi dan nilai
VIF dapat dilihat pada Tabel 2.

13
Dwi Laras Riyantini, Made Susilawati, Kartika Sari Penerapan Regresi Akar Laten dalam Menangani
Multikolinearitas

Tabel 2 Nilai Korelasi dan Nilai VIF pada dibentuk dari matriks korelasi 𝒁∗𝑻 𝒁∗. Untuk
Model Regresi Linier I model regresi linier I diperoleh nilai-nilai akar
NK 𝑋1 𝑋2 𝑋3 𝑋4 VIF laten yaitu:
𝑋1 1 14,9 𝜆0 = 2,8029
𝑋2 0,170 1 1,2
𝜆1 = 1,3790
𝑋3 0,951 0,251 1 23,3
𝑋4 -0,961 -0,262 -0,977 1 30,7 𝜆2 = 0,8015
𝜆3 = 0,0167
Pada Tabel 2, terlihat bahwa 𝑋1 dan 𝑋3
𝜆4 = 0,0000
memiliki nilai korelasi sebesar 0,951, 𝑋1
Dari akar laten 𝜆𝑗 , 𝑗 = 0,1,2,3,4, diperoleh
dengan 𝑋4 memiliki nilai korelasi sebesar -
vektor-vektor laten 𝛤𝑗 yang bersesuaian dengan
0,961, dan 𝑋3 dengan 𝑋4 memiliki nilai
korelasi sebesar -0,977. Hal ini 𝜆𝑗 yaitu:
mengindikasikan adanya multikolinearitas di −0,587
−0,355
antara peubah bebas 𝑋1 , 𝑋3 dan 𝑋4 . Selain
𝛤0 = −0,357
berdasarkan nilai korelasi, indikasi adanya −0,325
multikolinearitas antar peubah bebas 𝑋1 , 𝑋3 [−0,544]
dan 𝑋4 dipertegas dengan adanya nilai VIF −0,072
yang lebih besar dari 4, sehingga dapat −0,478
disimpulkan bahwa terdapat multikolinearitas 𝛤1 = −0,448
pada ketiga peubah bebas tersebut. Di lain 0,705
[ 0,263 ]
pihak, nilai korelasi pada peubah bebas 𝑋2
0,180
kurang dari 0,5 dan nilai VIF kurang dari 4 −0,639
menandakan bahwa peubah bebas 𝑋2 tidak 𝛤2 = 0,676
mengalami masalah multikolinearitas. Dengan 0,125
cara yang sama, diperoleh bahwa terdapat [−0,294]
beberapa peubah bebas yang mengalami 0,262
multikolinearitas pada model regresi yang lain. −0,487
𝛤3 = −0,618
Adanya multikolinearitas pada peubah-
−0,618
peubah bebas mengakibatkan model regresi [ 0,526 ]
yang diperoleh jauh dari akurat, sehingga −0,741
diperlukan alternatif dalam menangani −0,000
multikolinearitas yang dalam penelitian ini 𝛤4 = 0,425
dilakukan melalui regresi akar laten. 0,000
[ 0,521 ]
Regresi Akar Laten dalam Menangani
Mulikolinearitas Tidak ada kriteria yang pasti dalam
Langkah pertama dalam regresi akar laten penentuan akar laten dan vektor laten yang
adalah membakukan data dengan cara data digunakan untuk pembentukan komponen
dipusatkan (centering) dan diskalakan utama. Webster menyarankan untuk membuang
(scalling). Hal ini dilakukan untuk akar laten 𝜆𝑗 ≤ 0.05 atau unsur pertama vektor
memudahkan perhitungan dan juga laten padanannya | 𝛾0𝑗 | < 0.10 [10].
meminimumkan kesalahan pembulatan dalam Sedangkan, Sharma membuang akar laten
perhitungan. Pada penelitian ini, pembakuan 𝜆𝑗 ≤ 0.1 atau unsur pertama vektor laten
data dilakukan pada peubah respon dan peubah padanannya | 𝛾0𝑗 | < 0.3 dalam penelitiannya
bebas. Data yang telah merupakan elemen- [8], dan Reichert membuang akar laten 𝜆𝑗 ≤
elemen pada matriks 𝒁∗ .
0.3 atau unsur pertama vektor laten
Akar laten 𝜆𝑗 dan vektor laten 𝛤𝑗 dengan
padanannya| 𝛾0𝑗 | < 0.10 (Reichert, A.K.,
𝑗 = 1, … , 𝑝 − 1 yang bersesuaian dengan 𝜆𝑗

14
E-Jurnal Matematika Vol. 3, No.1 Januari 2014, 8-16 ISSN: 2303-1751

James, S.M., 1986). Dalam penelitian ini, tegak lurus dan tidak berkorelasi. Berdasarkan
penulis menggunakan kriteria pemilihan yang hasil analisis regresi akar laten, adapun model
disarankan oleh Webster karena dengan regresi I yang terbentuk adalah:
menggunakan kriteria tersebut, model regresi 𝑌 = 366 − 9,94𝐶0 − 1,22𝐶1 + 3,06𝐶2 +
yang diperoleh akan lebih akurat dengan data 4,44𝐶3
yang digunakan dalam penelitian ini. Oleh Hasil perhitungan dengan menggunakan
karena itu, dipilih akar laten 𝜆𝑗 ≤ 0.05 atau regresi akar laten pada model regresi I
elemen pertama vektor laten | 𝛾0𝑗 | < 0.10 [10]. diperoleh nilai VIF masing-masing peubah
Diperhatikan bahwa: bebas sebesar 1,0 dan nilai korelasi yang
a. 𝜆0 > 0,05 dan | 𝛾00 | = 0,587 > 0,10. bernilai kurang dari 0,5 antar peubah bebas
Oleh karena itu, vektor yang bersesuaian yang menandakan bahwa masalah
tetap dipertahankan. multikolinearitas dapat diatasi secara tuntas.
b. 𝜆1 > 0,05 dan | 𝛾01 | = 0,072 > 0,10. Nilai korelasi dan nilai VIF melalui regresi
Oleh karena itu, vektor ini tetap akar laten dapat dilihat pada tabel 3.
dipertahankan meskipun 𝛾01 bernilai Tabel 3. Nilai Korelasi Antar dan Nilai VIF
kecil. pada regresi akar laten
c. Karena 𝜆2 > 0,05 dan | 𝛾02 | = 0,180 > NK 𝐶1 𝐶2 𝐶3 VIF
0,10 maka vektor ini tetap dipertahankan. 𝐶1 1 1,0
d. 𝜆3 < 0,05 menandakan kemungkinan 𝐶2 - 1 1,0
adanya ke tidak bebas linieran di antara 0,00
peubah-peubah bebas. Akan tetapi, nilai
𝐶3 0,00 - 1 1,0
| 𝛾03 | = 0,262 > 0,10 menandakan 0,00
keteramalan yang tinggi sehingga vektor
𝐶4 0,00 0,00 0,00 1 1,0
ini tetap dipertahankan.
e. 𝜆4 = 0 menandakan adanya singularitas, dengan nilai koefisien determinasi ganda
dan menandakan keadaan tidak bebas terkoreksi (R2adj ) sebesar 1,00. Setelah itu,
linier di antara peubah-peubah bebas yang untuk memperoleh penduga koefisien regresi
menyebabkan pendugaan koefisien regresi untuk regresi akar laten pada peubah awal
menjadi tidak stabil, sehingga vektor ini digunakan persamaan (13) dan (14). Sehingga,
dibuang walaupun nilai | 𝛾04 | = 0,741 > untuk model regresi I, penduga koefisien pada
0,10 menandakan keteramalan yang data awal adalah sebagai berikut
tinggi. 𝑌 = 19,095 + 7,054 𝑋1 + 1,095𝑋2 +
Selanjutnya, dilakukan pembentukan 7,489𝑋3 − 5,515𝑋4
komponen utama berdasarkan koefisien Model tersebut menginterpretasikan jika pada
matriks (vektor laten). Berikut merupakan saat semua peubah bebas diasumsikan konstan,
proses pembentukan dari lima komponen yang maka peubah respon akan bernilai 19,095.
akan digunakan: Peubah respon akan meningkat sebesar 7,054
KU 1 (𝐶0 ) = −0,587𝑍𝑦 − 0,355𝑍1 − setiap kenaikan 𝑋1 satu satuan selama
0,357𝑍2 − 0,325𝑍3 − 0,544𝑍4 𝑋2 , 𝑋3 , 𝑋4 dipertahankan konstan. Peubah
KU 2 (𝐶1 ) = −0,072𝑍𝑦 − 0,478𝑍1 − respon akan berkurang sebesar 1,095 setiap
0,448𝑍2 − 0,705𝑍3 − 0,263𝑍4 kenaikan 𝑋2 satu satuan selama 𝑋1 , 𝑋3 , 𝑋4
KU 3 (𝐶2 ) = 0,180𝑍𝑦 − 0,639𝑍1 − dipertahankan konstan. Peubah respon akan
0,676𝑍2 − 0,125𝑍3 − 0,294𝑍4 meningkat 7,489 setiap kenaikan 𝑋3 satu
KU 4 (𝐶3 ) = 0,262𝑍𝑦 − 0,487𝑍1 − satuan selama 𝑋1 , 𝑋2 , 𝑋4 dipertahankan
konstan, dan peubah respon akan berkurang
0,187𝑍2 − 0,618𝑍3 + 0,526𝑍4
Komponen utama yang terbentuk merupakan sebesar 5,515 setiap kenaikan 𝑋4 satu satuan
kombinasi linier dari peubah asal yang saling selama 𝑋1 , 𝑋2 , 𝑋3 dipertahankan konstan.

15
Dwi Laras Riyantini, Made Susilawati, Kartika Sari Penerapan Regresi Akar Laten dalam Menangani
Multikolinearitas

Selanjutnya, untuk melihat seberapa O’Brien, R M. 2007. A Caution Regarding


2 Rules of Thumb for Variance Inflation
akurat model yang diperoleh, dihitung 𝑅𝑎𝑑𝑗
dengan menggunakan persamaan (3) dari Factor. Departement of Sociology of
2
masing-masing model. Nilai 𝑅𝑎𝑑𝑗 hasil RAL Oregon, Eugene, USA.
pada masing-masing model dapat dilihat pada Reichert, A.K., James, S.M., 1986. Using
Tabel 4. Latent Root Regression to Identify
2 Nonpredictive Collinearity in Statistical
Tabel 4. Nilai 𝑅𝑎𝑑𝑗 Model Hasil RAL
2
Appraisal Models. AREUEA Journal. 14,
Model 𝑅𝑎𝑑𝑗 136-152
I 1,000 Sembiring, R.K. 2003. Analisis Regresi. Edisi
II 1,000 Kedua. Bandung : Penerbit ITB.
III 1,000 Sharma, S., James, W.L., 1986. Latent Root
IV 1,000 Regression: An Alternate Procedure for
V 1,000 Estimating Parameters in the Presence of
VI 1,000 Multicollinearity. JMR, Journal of
VII 1,000 Marketing Research. 18, 154-161.
VIII 1,000 Vigneau, E., Qannari, E.M., 2002. A New
IX 1,000 Algorithm for Latent Root Regression
X 1,000 Analysis. Computational Statistics & Data
XI 1,000 Analysis. 41, 231-242.
Webster, J.T., R. F. Gunts, and R. L.
2
Berdasarkan Tabel 4, nilai 𝑅𝑎𝑑𝑗 sebesar Mason.(1974). Latent Root Regression
1,000 merupakan hasil pembulatan karena data Analysis. Technometrics 16, 513-522.
yang digunakan dalam penelitian ini
merupakan bilangan desimal, yang kemudian
dalam prosesnya mengalami pembulatan
berkali-kali.

4. Kesimpulan
Berdasarkan pembahasan dapat
disimpulkan bahwa regresi akar laten dapat
mengatasi multikolinearitas dengan tuntas dan
menghasilkan persamaan regresi yang akurat.

Daftar Pustaka
Draper, N.R. and H. Smith. 1992. Analisis
Regresi Terapan, Edisi Kedua.
Diterjemahkan oleh Bambang Sumantri.
Jurusan Statistika FMIPA IPB. Bogor
Gujarati N, Damorar. 1995. Ekonometrika Dasar.
Erlangga. Jakarta.
Myers, R.H. & Milton, J.S. 1991. A First Course
In The Theory Of Linier Statistical Models.
PWS-KENT Publishing Company, Boston
Neter, J. 1997. Model Linier Terapan.
Diterjemahkan oleh Bambang Sumantri.
IPB, Bandung.

16

Anda mungkin juga menyukai