Anda di halaman 1dari 19

BAB 1

PENDAHULUAN
1.1

Latar Belakang
Statistika merupakan cabang dari ilmu matematika yang
telah berkembang sangat pesat. Tidak hanya dapat digunakan
dalam hal analisis, namun juga dapat digunakan sebagai metode
pengambilan sebuah keputusan. Untuk menjalankan fungsinya
tersebut, ilmu statistika berkembang dengan berbagai macam
metode, salah satunya adalah analisis regresi.
Analisis regresi merupakan salah satu metode statistika
yang sering digunakan untuk membantu mengungkapkan
hubungan atau pengaruh satu atau lebih peubah bebas terhadap
peubah tak bebas. Bila dalam analisisnya hanya melibatkan
sebuah peubah bebas maka digunakan adalah analisis linier
sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau
lebih variabel bebas, maka analisis yang digunakan adalah
analisis regresi linear berganda. Dalam kehidupan sehari-hari
banyak sekali permasalahan yang dapat dipecahkan dengan
menggunakan analisis regresi, salah satu contohnya adalah
mengenai tingkat konsumsi yang diduga dipengaruhi oleh
pendapatan dan juga kekayaan.
Dalam analisis regresi, salah satu asumsi klasik yang
penting adalah multikolinearitas. Data yang di dalamnya terdapat
multikolinearitas akan menyebabkan sifat bias terhadap
pendugaan parameternya kelak. Sehingga, diperlukan suatu
teknik khusus untuk menangani kasus data yang mengandung
multikolinieritas, salah satunya menggunakan analisis regresi
komponen utama yang akan dibahas pada laporan ini.

1.2 Tujuan
Mengetahui dan dapat mendeskripsikan konsep multikolinearitas.
Dapat melakukan uji asumsi multikolinieritas menggunakan
software Minitab.
Dapat menangani kasus multikolinieritas dengan menggunakan
analisis regresi komponen utama.
Dapat melakukan interpretasi hasil penanganan multikolinieritas
dengan regresi komponen utama.

BAB II
TINJAUAN PUSTAKA
2.1 Multikolinieritas
2

Multikolinearitas adalah kondisi terdapatnya hubungan linier atau


korelasi yang tinggi antara masing-masing variabel independen dalam
model regresi. Multikolinieritas biasanya terjadi ketika sebagian besar
bvariabel yang digunakan saling terkait dalam suatu model regresi. Oleh
karena itu masalah multikolinieritas tidak terjadi pada regresi linier
sederhana yang hanya melibatkan satu variabel independent.
Indikasi masalah multikolinieritas dapat kita lihat dari kasuskasus sebagai berikut :
1. Nilai R2 yang tinggi (signifikan), namun nilai standard error dan
tingkat signifikansi masing-masing variabel sangat rendah.
2. Perubahan kecil sekalipun pada data akan menyebabkan perubahan
signifikansi variabel yang diamati.
3. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya
variabel yang seharusnya memiliki pengaruh positif (nilai koefisien
positif), ditunjukkan dengan nilai negatif.
Hingga saat ini tidak ada kriteria formal untuk menentukan batas
terendah dari nilai toleransi atau VIF. Beberapa ahli berpendapat bahwa
nilai toleransi kurang dari 1 atau VIF lebih besar dari 10 menunjukkan
multikolinieritas signifikan, sementara itu para ahli lainnya menegaskan
bahwa besarnya R2 model dianggap mengindikasikan adanya
multikolinieritas. Klein (1962) menunjukkan bahwa jika VIF lebih besar
dari 1/(1 R2) atau nilai toleransi kurang dari (1 R2), maka
multikolinieritas dapat dianggap signifikan secara statsitik.
2.2 Penanganan Multikolinieritas
Sebelum dilakukan penanganan kasus multikolinieritas,
sebelumnya perlu diadakan pemeriksaan mengenai masalah tersebut.
Pemeriksaan adanya masalah multikolinieritas dapat dilakukan dengan
beberapa metode, diantaranya :
1. Menentukan matriks korelasi dari semua peubah bebas. Prosedur
ini merupakan pemeriksaan yang paling sederhana dan paling
mudah. Nilai korelasi yang tinggi antara peubah satu dengan yang
3

lainnya memperlihatkan adanya hubungan linier pada peubahpeubah tersebut.


2. Multikolinieritas dalam peubah bebas dapat diperiksa dengan
melihat nilai VIF. Nilai ini diperoleh dari diagonal utama hasil
perhitungan matriks (XX)-1. Apabila salah satu nilai VIF lebih
dari 10 maka dapat dikayakan bahwa peubah Xj berhubungan erat
dengan peubah-peubah X lainnya atau dengan kata lain dalam
peubah bebas terdapat masalah multikolinieritas (Myers,1990).
Nilai VIF (fakor inflasi ragam) dapat juga dihitung berdasarkan
rumus : VIFj = (1-R2j)-1 dengan R2j adalah koefisien determinan
yang diperoleh jika peubah Xj diregresikan dengan p-1 peubah
bebas lainnya. VIF memperlihatkan kenaikan ragam dugaan
parameter yang dipengaruhi oleh keberadaan multikolinieritas
(Sen dan Srivastava 1990, dalam Gusriani 2004).
Penanganan kasus multikolinieritas ini telah dikembangkan oleh
banyak peneliti melalui melalui berbagai pendekatan, diantaranya dengan
menggunakan regresi himpunan terbaik dan regresi stepwise. Seperti yang
dibahas dalam Draper and Smith (1992). Namun denikian jika seluruh
peubah bebas berkorelasi tinggi, pendekatan-pendekatan tersebut sulit
dilakukan dan tidak akan memperioleh solusi yang baik. Pendekatan lain
dalam mengatasi multikolinieritas dapat digunakan regresi gulud (ridge
regression), regresi akar laten, dan regresi komponen utama. Di antara
metode-metode tersebut, regresi komponen utama merupakan metode
yang dikenal baik dan sering digunakan (Jollife,1986).
2.3 Analisis Komponen Utama (Principle Component Analysis)
Analisis komponen utama atau PCA adalah metode analisis
peubah multi yang bertujuan memperkecil dimensi peubah asal seingga
diperoleh peubah baru (komponen utama) yang tidak saling berkorelasi
tetapi menyimpan sebagian besar informasi yang terkandung dalam
peubah asal (Supranto, 2004).
4

Prosedur PCA pada dasarnya adalah bertujuan untuk


menyederhanakan peubah yang diamati dengan cara menyusutkan
(mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan
korelasi diantara peubah bebas melalui transformasi peubah bebas asal ke
peubah baru yang tidak berkorelasi sama sekali atau yang biasa disebut
principal component.
Analisis Komponen Utama (PCA) merupakan sekumpulan m
peubah asli untuk menghasilkan m peubah baru yang disebut sebagai
komponen utama, PC1, PC2, . . ., PCm, yang mana masing-masing
komponen utama membentuk kombinasi linier dari Ss Scores dari peubah
asli. Atau pada bentuk matriks PC = XB, dimana masing-masing kolom B
terdiri dari koefisien setiap komponen utama (Haris, 1975). Analisis
komponen utama merubah sekumpulan peubah menjadi sekumpulan
kombinasi linier untuk menghitung banyaknya ragam dari peubah asli
(Dillon&Goldsten,1984).
Nilai proporsi dari kergaman total yang dapat diterangkan oleh
komponen utama, kedua atau sampai sejumlah komponen utama secara
bersama-sama adalah semaksimal mungkin dengan meminimalisasi
informasi yang hilang. Mekipun jumlah komponen utama berkurang dari
pemilihan komponen utama yang digunakan adalah jika nilai akar cirinya
lebih dari 1 dan proporsi keragaman yang dianggap cukup mewakili total
keragaman data jika keragaman kumulatif lebih dari 80% (Hair,
Anderson, Thatham dan Black, 1998)
BAB III
METODOLOGI
3.1 Uji Multikolinieritas
Buka minitab masukkan data (Y dan X) seperti pada gambar di
bawah ini dan siapkan kolom untuk standarisasi yaitu Z1, Z2, . . ., Zn dan
juga kolom untuk menyimpan hasil komponen utama: W1, . . . , Wn :
5

Klik stat Regression Regression Fit Regression Model

Masukkan variabel dependent (Y) dan variabel independen (X1, ..., Xn)
klik OK

Kemudian lihat hasilnya pada kolom Session


Kemudian untuk analisis lebih lanjut nilai-nilai tersebut harus
distandarisasi dengan klik Calc Standardize dengan sebelumnya telah
menyediakan tempat untuk Z1, . . . , Zn

Masukkan X input column dan masukkan kolom yang telah disediakan


pada kolom Store result in seperti pada gambar di bawah ini klik OK

Kemudian lihat hasilnya pada kolom Z1, . . ., Zn yang telah disediakan.


Langkah selanjutnya adalah klik Stat Multivariate Principal
Components

Kemudian akan muncul dialog box seperti di bawah ini :

Isilah kotak variables dengan data yang telah distandarisasi (Z1, Z2, ...
, Z9) dan Pada type of Matrix pilihlah Covariance
Klik Storage Pada scores isilah W1, W2, ..., Wn OK OK

Kemudian Regresikan Y dengan W dengan Klik stat Regression


Regression Fit Regression Model Isikan variabel Response dengan
Y Isikan Continous predictors dengan W1, . . ., Wn OK

Kemudian untuk menampilkan statistik deskriptif klik


Statistics Display Descriptive Statistics

Stat Basic

Selanjutnya akan muncul dialog box seperti di bawah ini dan masukkan
variabelsnya dengan data X

10

Setelah itu Klik Statistics Pilih / centang pada statistika deskriptif yang
dibutuhkan saja OK OK seperti pada gambar di bawah ini :

BAB IV
HASIL DAN PEMBAHASAN
4.1 Hasil Analisis Regresi pada Minitab

11

Dari hasil di atas diperoleh masing-masing koefisien untuk variabel


prediktor. Namun, masalahnya ada VIF > 10 seingga dapat dikatakan
bahwa data tersebut mengandung multikolinieritas tidak penuh. Sehingga
perlu penanganan menggunakan regresi komponen utama
Hasil standarisasi dan juga komponen utama ada pada lampiran.
4.2 Hasil Regresi Komponen Utama

Pada matriks kovarian di atas, maka kita lihat dari kumulatifnya. Karena
kita menggubakan acuan 80% maka digunakan 4 komponen yang
diseabkan oleh komponen ke-empat baru menunjukkan nilai yang lebih
dari 80%.

Hasil di atas merupakan hasil reresi Y terhadap W. Karena hanya


menggunakan empat komponen utama maka modelnya menjadi :
Y = 34.612 + 2.358W1 + 1.684W2 + 0.423W3 + 0.348W4

12

Karena yang digunakan hanya empat komponen utama maka hanya


dilihat dari PC1, PC2, PC3, dan PC4 dan penjabaran komponen utama
dapat dilakukan seperti berikut ini :
W1 = 0.421Z1 + 0.366Z2 + 0.319Z3 + 0.427Z4 + 0.294Z5 + 0.424Z6 +
0.346Z7 0.065Z8 + 0.121Z9
W2 = -0.287Z1 0.088Z2 0.374Z3 0.069Z4 + 0.212Z5 + 0.276Z6 +
0.455Z7 + 0.658Z8 +0.070Z9
W3 = 0.050Z1 0.105Z2 0.264Z3 + 0.043Z4+ 0.225Z5 + 0.052Z6 +
0.225Z7 0.299 Z8 0.849Z9
W4 = 0.081Z1 0.516Z2 + 0.125Z3 0.32Z4 + 0.694Z5 + 0.075Z6
0.085Z7 0.220Z8 + 0.258Z9
Maka setelah substitusi W didapatkan fungsi baru sebagai berikut :
Y = 34.612 + 0.558Z1 + 0.8253Z2 + 1.3138Z3 + 1.3828Z4 + 1.3878Z5
+ 0.5127 Z6 + 1.7068Z7 + 1.4644Z8 + 0.852Z9
Dengan analisis deskriptif yang diperoleh seperti pada gambar di bawah
ini :

13

Maka kita regresikan Y terhadap X dengan menentukan parameter


terlebih dahulu :
0 = 34.612 0.5587(6.405)/2.503 0.8253(1.1667)/0.058
1.3138(6.033)/3.860 1.3828(1.3836)/0.0763 1.3878(1.313)/0.365
0.5127(6.5)/0.783 1.7068(3.167)/0.319
-1.4644(37.46)/197.13-0.852(0.25)/0.1957
= -38.1077
1 = 0.5587 / 2.503 = 0.2232
2 = 0.8253 / 0.058 = 14.2293
3 = 1.3130 / 3.86 = 0.3402
4= 1.3828 / 0.0763 = 18.1232
5 = 1.3878 / 0.365 = 3.8022
6 = 0.5127 / 0.783 = 0.6548
7 = 1.7068 / 0.319 = 0.3505
8 = 1.4644 / 197.13 = 0.0074
9 = 0.852 / 0.1957 = 4.3536
Gambar di atas menunjukkan penduga yang sudah tidak mengandung
multikolinieritas. Sehingga didapatkan model :
Y = -38.1077 + 0.2232X1 + 14.2293X2 +
0.3402X3 + 18.1232X4 + 3.8022X5 +
0.6548X6 + 0.3505X7 + 0,0074X8 +4.3536X9

Interpretasi model :
Harga jual rumah akan turun sebesar 38.1077 jika semua peubah
konstan.
14

Setiap kenaikan 1 unit pajak akan meningkatkan harga jual


sebesar 0.2232
Setiap kenaikan 1 unit banyaknya kamar mandi akan
meningkatkan harga jual rumah sebesar 14.2293
Setiap kenaikan 1 meter persegi luas tanah akan meningkatkan
harga jual rumah sebesar 0.3402
Setiap kenaikan 1 meter persegi luas bangunan akan
meningkatkan harga jual sebesar 18.1232
Setiap kenaikan 1 unit banyaknya garasi akan menaikkan harga
jual sebesar 3.8022
Setiap kenaikan 1 unit banyaknya ruangan akan menaikkan harga
jual rumah sebesar 0.6548
Setiap kenaikan 1 unit banyaknya kamar akan menaikkan harga
jual rumah sebesar 0.3505
Setiap kenaikan 1 unit umur rumah akan menaikkan harga jual
sebesar 0.0074
Setiap kenaikan 1 unit perapian akan meningkatkan harga jual
rumah sebesar 4.3536
BAB V
PENUTUP
5.1 Kesimpulan

Data harga jual rumah tersebut mengandung


multikolinieritas karena ada VIF > 10 dan menyebabkan
pendugaan parameter bersifat bias.
Penanganan multikolinieritas dapat dilakukan dengan
menggunakan regresi komponen utama.
Model dengan parameter tak bias setelah penanganan
kasus multikolinieritas didapatkan :
Y = -38.1077 + 0.2232X1 + 14.2293X2 +
0.3402X3 + 18.1232X4 + 3.8022X5 +
0.6548X6 + 0.3505X7 + 0,0074X8 +4.3536X9

15

5.2 Saran
Ketelitian sangat penting ketika mensubstitusikan W dan
selain itu, perlu diperhatikan nilai kumulatif untuk
membentuk fungsi baru agar tidak terjadi kesalahan fungsi

DAFTAR PUSTAKA
Dillon, William R & Matthew Goldstein.1984. Multivariate Analysis
Method and Application. Canada: John Willey&Sons,Inc.
Gusriani, Nurul. 2004. Regresi Ridge dengan Penduga Bayes untuk
Mengatasi Multikolinieritas. Bogor : IPB
Hair. J.F.Jr., R.E. Anderson, R.L. Thatham dan W.C. Black. 1998.
Multivariate Data Analysis Fifth Ed. New Jersey: Prentice Hall
International, Inc.
Montgomery, Douglas C. Linear Regression Analysis : Fifth Edition .
2012. NewJersey : Wiley
Prasetyo, H.B. Analisis regresi komponen utama untuk mengatasi
masalah multikolinieritas dalam analisis regresi linier berganda.
Hariz_oke@yahoo.com. Diakses tanggal 29 Maret 2015
Sembiring, R.K. 1995 . Analisis Regresi. Penerbit : ITB
16

Soemartini. 2008. Principal Component Analysis sebagai Salah Satu


untuk Mengatasi Multikolinearitas. Jatinangor: FMIPA-UNPAD
Yitnosumarno, S. 1985. Regresi dan Korelasi, teori dan pengguaannya.
Malang (tidak dipublikasikan)

LAMPIRAN 1 : Data

17

Lampiran 2 : Hasil transformasi

18

Lampiran 3 : Nilai W

19

Anda mungkin juga menyukai