Anda di halaman 1dari 28

MENGATASI MULTIKOLINEARITAS MENGGUNAKAN

PRINCIPAL COMPONENT ANALYSIS (PCA)

Laporan Praktikum ke-2


Disusun untuk Memenuhi Laporan Praktikum
Analisis Regresi Lanjutan

Oleh

Nama : Faisyal
Nim : 125090507111001
Asisten 1 : Windy Antika Antis Watin
Asisten 2 : Faikotur Rohima

LABORATORIUM STATISTIKA
PROGRAM STUDI STATISTIKA
JURUSAN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS BRAWIJAYA
2014
BAB I
PENDAHULUAN
1.1 Latar Belakang

Analisis regresi adalah metode statistika yang digunakan untuk


mengetahui sejauh mana ketergantungan atau hubungan sebuah variabel
respon (variabel tak bebas) dengan sebuah atau lebih variabel prediktor
(variabel bebas). Bila dalam analisisnya hanya melibatkan satu variabel
prediktor, maka analisis yang digunakan adalah analisis regresi linear
sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau lebih
variabel prediktor, maka analisis yang digunakan adalah analisis regresi
linear berganda.

Dalam kehidupan sehari-hari, banyak sekali permasalahan yang


melibatkan analisis regresi linear berganda. Dalam analisis regresi yang
memuat banyak variabel prediktor, sering timbul masalah karena adanya
hubungan antara dua atau lebih variabel prediktornya. Variabel prediktor
yang berkorelasi disebut kolinearitas ganda (multicollinearity).
(Soemartini, 2008)

Bentuk persamaan yang paling sederhana dari regresi linear


berganda adalah yang mempunyai dua variabel prediktor X dan sebuah
variabel respon seperti pada persamaan berikut:
Y = βo + β1X1i + β2X2
Cara lain yang umum dipergunakan pada penulisan model regresi linear
berganda untuk dua prediktor seperti yang dikembangkan oleh Yule dengan
model persamaan berikut:
Y i = βY.12 + βY1.2Xi1 + βY3.1Xi2 + εi
Indeks (subscrift) dengan angka 1 pada variabel X adalah untuk variabel X1
dan angka 2 untuk variabel X2. Nilai koefisien regresi βY.12 dalam model
tersebut merupakan titik potong dengan sumbu tegak atau intercept, yang
biasanya diartikan sebagai pengaruh ratarata (mean effect) tehadap variabel
respon Y di luar variabel prediktor X yang ada dalam model atau nilai rata-
rata Y jika X1 dan X2 sama dengan nol (= 0). Koefisien regresi βY1.2 adalah
koefisien arah atau estimator regresi Y terhadap X1 dengan X2 dianggap
konstan. Koefisien regresi βY3.1 adalah koefisien arah atau estimator regresi
Y terhadap variabel X2 dengan X1 dianggap konstan. Interprestasi dari
analisis regresi linier berganda ini adalah hampir serupa dengan
interprestasi analisis regresi linier sederhana, artinya variabel prediktor X1
bersama-sama dengan variabel prediktor X2 berpengaruh terhadap variabel

1
respon Y, yang masing-masing variabel Xi bekerja secara linier dan bebas
sesamanya.
(Anonim, 2012)

Secara umum persamaan regresi linier dengan k prediktor


dinyatakan dengan :
Yi = βo + β1X1i + β2X2i + …+ βkXki + εi

dengan :
Yi = variabel respon atau pengamatan ke i pada variabel yang
dijelaskan y
Xi = prediktor atau pengamatan ke i pada variabel penjelas xk
β1… βk = parameter atau koefisien regresi variabel penjelas xk
εi = variabel gangguan atau error

Ketika terjadi multikolinearitas maka akan mengakibatkan suatu


model regresi menjadi tidak baik dijadikan sebagai penduga karena model
yang digunakan akan berbias. Untuk mendeteksi terjadinya
multikolinearitas maka menggunakan uji VIF (Variance inflation factors).
Selanjutnya model yang terdeteksi adanya multikolinearitas harus
melakukan penanganan supaya modelnya menjadi non multikolinearitas.
Salah satu cara yang digunakan dalam mengatasi non multikolinearitas
adalah menggunakan Principal Component Analysis (PCA).

1.2 Rumusan Masalah

Yang menjadi rumusan masalah dalam laporan ini adalah:


1. Bagaimanakah cara mendeteksi adanya multikolinearitas
menggunakan Variance inflation Factors (VIF) ?
2. Bagaimanakah cara mengatasi multikoliearitas menggunakan
Principal Component Analysis (PCA) ?

1.3 Tujuan

Tujuan dari pembuatan laporan ini yaitu menggunakan Principal


Component Analysis untuk mengatasi masalah multikolinearitas pada yang
terjadi pada model regresi berganda. Sehingga didapatkan model regresi
yang baik untuk digunakan.

2
BAB II
KAJIAN PUSTAKA

2.1 Multikolinearitas

Multikolinearitas muncul ketika variabel-variabel prediktornya saling


berkorelasi. Variabel-variabel prediktor yang berkorelasi membuat kita
sulit mengambil kesimpulan mengenai masing-masing koefisien regresi
dan masing-masing dampaknya terhadap variabel terikat. Pada akhirnya,
hamper mustahil untuk memilih variabel-variabel yang benar-benar tidak
berhubungan. Dengan kata lain, hampir mustahil untuk menciptakan
kelompok kelompok variabel prediktor yang tidak berhubungan hingga
tingkat tertentu.

Alasan untuk menghindari variabel yang berkorelasi adalah


kemungkinan menghasilkan hasil yang salah dalam pengujian hipotesis
untuk masing-masing variabel prediktor. Hal ini disebabkan oleh
ketidakstabilan dalam kesalahan standar estimasi. Beberapa petunjuk yang
mengindikasikan masalah-masalah multikolinearitas adalah:
a. Sebuah variabel prediktor yang diketahui merupakan prediktor
penting ternyata memiliki koefisien regresi yang tidak signifikan.
b. Sebuah koefisien regresi yang seharusnya memiliki nilai positif
ternyata bernilai negatif, atau sebaliknya.
c. Ketika sebuah variabel prediktor ditambahkan atau dihilangkan,
terjadi perubahan yang drastis pada nilai koefisien regresi yang
tersisa.

Pada umumnya pendekatan yang digunakan untuk mengurangi resiko


terjadinya multikolinearitas adalah memilih variabel prediktor secara hati-
hati. Aturan umumnya, jika korelasi antara dua variabel prediktor berada
diantara -0.70 dan 0.70, tampaknya tidak masalah untuk menggunakan
variabel-variabel prediktor tersebut (lind dkk, 2008).

Tetapi ada pengujian yang lebih cermat dalam mendeteksi


multikolinearitas yaitu uji variance inflation factor (VIF).

2.2 Variance Inflation Factors (VIF)


3
Variance Inflation Factors (VIF) merupakan salah satu indikator untuk
mengukur besarnya kolinearitas. VIF menunjukkan peningkatan ragam dari
koefisien regresi yang disebabkan karena adanya ketergantungan linear
peubah prediktor tersebut dengan peubah prediktor yang lain. digunakan
untuk mendeteksi adanya multikolinearitas. Rumus VIF adalah sebagai
berikut:
1
VIFj = 1−R 2 , j = 1,2,….,n
j

Dimana p = banyaknya peubah prediktor dan Suku R2j adalah koefisien


determinasi, dimana variabel prediktor yang dipilih digunakan sebagai
respon dan variabel prediktor lainnya digunakan sebagai variabel prediktor.
Sebuah VIF yang lebih besar dari 10 dianggap tidak memuaskan,
mengindikasikan bahwa variabel prediktor tersebut seharusnya dibuang
(Suci, 2014).

2.3 Principal Component Analysis (PCA)

Montgomery dan Hines (1990) menjelaskan bahwa dampak


multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan
oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat
memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel
prediktor yang bersangkutan. Dalam banyak hal masalah Multikolinearitas
dapat menyebabkan uji T menjadi tidak signifikan padahal jika masing-
masing variabel prediktor diregresikan secara terpisah dengan variabel
respon (simple regression) uji T menunjukkan hasil yang signifikan. Hal
tersebutlah yang sering kali membuat pusing para peneliti karena hasil
analisis yang dilakukan pada regresi berganda dan regresi sederhana
tidaklah sejalan atau bahkan sangat bertentangan.

Akan tetapi, pada prakteknya prosedur penanggulangan yang telah


disebutkan di atas sangat tergantung sekali pada kondisi penelitian,
misalnya prosedur penggunaan informasi apriori sangat tergantung dari ada
atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung
hubungan matematis antara variabel prediktor yang saling berkolinear,
prosedur mengeluarkan variabel prediktor yang berkolinear seringkali
membuat banyak peneliti keberatan karena prosedur ini akan mengurangi
obyek penelitian yang diangkat, sedangkan prosedur lainya seperti
menghubungkan data cross sectional dan time series, prosedur first
difference dan penambahan data baru seringkali hanya memberikan efek

4
penanggulangan yang kecil pada masalah multikolinearitas. Oleh karena
itu, kita dapat mengunakan teknik lain yang dapat digunakan untuk
meminimumkan masalah multikolinearitas tanpa harus mengeluarkan
variabel prediktor yang terlibat hubungan kolinear, yaitu dengan metode
Principal Component Analysis (PCA) yang ada dalam analisis faktor.

Prosedur PCA pada dasarnya adalah bertujuan untuk


menyederhanakan variabel yang diamati dengan cara menyusutkan
(mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan
korelasi diantara variabel prediktor melalui transformasi variabel prediktor
asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa
disebut dengan principal component. Setelah beberapa komponen hasil
PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen
tersebut menjadi variabel prediktor baru yang akan diregresikan atau
dianalisa pengaruhnya terhadap variabel respon (Y) dengan menggunakan
analisis regresi.

Keuntungan penggunaan Principal Component Analysis (PCA)


dibandingkan metode lain :
1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga
masalah multikolinearitas dapat benar-benar teratasi secara bersih.
2. Dapat digunakan untuk segala kondisi data / penelitian.
3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal.
4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan
yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat
dibandingkan dengan pengunaan metode lain (Soemartini, 2008)

Prinsip utama dari PCA atau biasa juga disebut dengan regresi
komponen utama ialah skor komponen utama yang diregresikan dengan
peubah respon atau dengan kata lain regresi komponen utama merupakan
analisis regredi dari peubah respon terhadap komponen-komponen utama
yang tidak saling berkorelasi.

Dengan demikian apabila W1, W2,….., Wm dinyatakan sebagai


komponen utama yang dilibatkan dalam analisis regresi, serta Y sebagai
peubah respon, maka model regresi komponen utama dapat dirumuskan
sebagai:
Y = α0 + α1W1+ α2W2+……+ αmWm+ ε (2)
Dimana:

5
Wj = Peubah prediktor komponen utama yang merupakan kombinasi
linear dari semua peubah baku Z (j=1,2,…,m),
α0 = konstanta,
αj = koefisien regresi (j=1,2,…,m),
ε = faktor pengganggu,
m = banyaknya komponen utama, m ≤ p.

Setiap komponen utama dalam persamaan (2) memiliki hubungan


dengan semua peubah baku Z yang merupakan kombinasi linear dari semua
peubah baku Z. Hubungan itu dinyatakan sebagai:
W1 = α11Z1+ α21Z2+….+ αp1Zp
W2 = α12Z1+ α22Z2+….+ αp2Zp (3)
………………………………………………
Wm = α1mZ1+ α2mZ2+….+ αpmZp

Dengan memanfaatkan hubungan antara komponen utama W1,


W2,…Wm dengan peubah baku Z1, Z2,…Zp pada persamaan (2), apabila
disubstitusikan ke dalam persamaan (3) dan diselesaikan secara aljabar
maka akan diperoleh persaman regresi dalam bentuk baku Z yaitu:
Y = c0 + c1Z1+ c2Z2+……+ cpZp (4)
Dimana:
c0 = α0,
c1 = α0 a11+ α2 a12+…..+ αm a1m
c2 = α1 a21+ α2 a22+…..+ αm a2m
…………………………………………………………
cp = α1 ap1+ α2 ap2+…..+ αmapm (5)

Persamaan (5) menunjukkan adanya hubungan antara koefisien


regresi dari peubah asli (peubah baku Z) dan koefisien pembobot dari setiap
komponen utama. Pendugaan parameter persamaan struktural yang asli
(koefisien regresi c) dapat dilakukan berdasarkan koefisien regresi
komponen utama (α). Dengan demikian apabila nilai dugaan bagi
parameter model regresi komponen utama (α) telah diketahui maka secara
otomotis nilai dugaan bagi parameter model struktural yang asli (c) dapat
ditentukan (Gaspersz, 1995).

Regresi komponen utama dalam bentuk matrik:


Y = XVVT𝛽 + ε (6)
= Wδ + ε
Penduga parameter regresi komponen utama (δ)

6
𝛅 = (WTW)-1 WTY (7)
Dimana:
Y = vektor peubah respon (nx1),
X = matrik peubah prediktor (nx(p+1)),
𝛽 = vektor parameter regresi ((p+1)x1),
ε = vektor galat (nx1),
V = matrik (pxp) yang berisi vektor eigen yang telah dinormalisir dari
matrik korelasi XTX yang bersesuaian dengan nilai eigen λ1, λ2,….,λp.
W = (W1, W2,…..,WP) = ZV = matrik komponen utama dari Z(Zij =
(𝑋 𝑖𝑗 − 𝑋 𝑗 )
(Suci, 2014)
𝑉𝑎𝑟 (𝑋 𝑗 )

7
BAB III
METODOLOGI 8
3.1 Mendeteksi Multikolinearitas Menggunakan Software Minitab

Langkah-langkah dalam mendeteksi adanya nilai multikolinearitas


yaitu sebagai berikut:
1. Membuka software Minitab dengan cara mengklik dua kali
shortcut Minitab pada Desktop. Seperti gambar berikut:

2. Selanjutnya akan muncul tampilan awal software Minitab seperti


gambar dibawah ini:

3. Masukan data yang ingin di uji multikolinearitasnya pada


worksheet seperti terlihat pada gambar berikut:

4. Klik stat => Regression => regression, sehingga akan muncul


tampilan pada gambar berikut:
9
5. Masukan Y pada kolom response dan masukan X1, X2, X3 dan X4
pada kolom predictors. Seperti terlihat pada gambar berikut ini:

6. Klik options dan centang Variance Inflations Factors seperti


terlihat pada gambar berikut:

7. Klik Ok, kemudian klik lagi Ok maka akan Muncul Outputnya.

3.2 Mengatasi Multikolinearitas dengan PCA Menggunakan Minitab

Langkah-langkah dalam mengatasi adanya multikolinearitas dapat


dilakukan sebagai berikut:
1. Melakukan standarisasi nilai peubah prediktor.
2. Sediakan tabel pada worksheet untuk Z0, Z1, Z2, Z3 dan Z4. Untuk
nilai Z0 isikan dengan angka 1. Seperti terlihat pada gambar
berikut: 10
3. Klik calc => standardize. Sehingga akan tampil gambar berikut:

4. Pada input column masukan X1, X2, X3, dan X4 dan pada store
results masukan Z1, Z2, Z3 dan Z4. Seperti gambar berikut:

5. Klik ok maka akan muncul data yang sudah distandarisasi seperti


pada gambar berikut:

6. Selanjutnya membentuk mencari regresi komponen utama.


Sediakan kolom W1, W2, W3 dan W4 pada worksheet. Klik stat
=> multivariate => principal components analysis. Sehingga
muncul gambar berikut:
11
7. Pada kolom variables masukan Z1, Z2, Z3, dan Z4 dan Type of
matrix pilih correlation. Seperti gambar berikut:

8. Klik storage, pada kolom scores masukan W1, W2, W3 dan W4.
Seperti gambar berikut:

9. Klik ok => ok. Maka akan muncul tampilan pada worksheet


sebagai berikut:

12
10. Tampilan pada session sebagai berikut:

11. Nilai cumulative dari W1 dan W2 sampai > 75% maka bisa
mewakili data yang lain. Sehingga regresikan W1 dan W2 dengan
Y. langkahnya klik Stat – Regressions – Regression Sehingga
muncul berikut:

Pada response masukan Y dan pada predictors masukan W1 dan


W2. Seperti gambar berikut:

Klik ok dan akan terlihat tampilan regresinya pada session sebagai


berikut:

13
12. Substitusikan nilai W1 dan W2 pada persamaan regresi yang baru.
Sehingga akan dihasilkan persamaan regresi PCA.
13. Mencari mean dan variance. Klik stat => basic statistics => store
descriptive statistics. Sehingga muncul gambar berikut:

Pada kolom variables masukan X1, X2, X3 dan X4. Seperti


gambar berikut:

Klik statistics centang mean dan variance seperti gambar berikut:

Lalu klik ok. Maka pada worksheet maka akan muncul tampilan
berikut:

14
14. Selanjutnya mencari nilai b0, b1, b2 dan b4. Siapin dulu tempat
untuk b0, b1, b2 dan b4 pada worksheet. Klik calc => calculator
maka muncul gambar berikut:

Untuk mencari bo maka pada store result in variable masukan b0


pada expression masukan perhitungan sesuai dengan rumus regresi
ridge yaitu nilai b0 PCA-(b1 PCA*mean1/var1)-(b2
PCA*mean2/var2)-(b3 PCA*mean3/var3)-(b4 PCA*mean4/var4).
Untuk b1 maka pada store result in variable masukan b1 dan pada
expresision perhitungannya b1 PCA/var1.
Untuk b2 maka pada store result in variable masukan b2 dan pada
expresision perhitungannya b2 PCA/var2.
Untuk b3 maka pada store result in variable masukan b3 dan pada
expresision perhitungannya b3 PCA/var3.
Untuk b4 maka pada store result in variable masukan b4 dan pada
expresision perhitungannya b4 PCA/var4.
Sehingga pada worksheet akan muncul nilai b0, b1, b2. b3 dan b4.

15
16
BAB IV
HASIL DAN PEMBAHASAN

4.1 Permasalahan

Diketahui data poros dalam semen yang diakibatkan oleh penambahan


4 jenis aditif X1, X2, X3, X4. Hasil pengamatan sebagai berikut dengan
Y merupakan panas (kalor) semen :
Y X1 X2 X3 X4
78.5 7 26 6 60
74.3 1 29 15 52
104.3 11 56 8 20
87.6 11 31 8 47
95.9 7 52 6 33
109.2 11 55 9 22
102.7 3 71 17 6
72.5 1 31 22 44
93.1 2 54 18 22
115.9 21 47 4 26
83.8 1 40 23 34
113.3 11 66 9 12
109.4 10 68 8 12

4.2 Penyelesaian

a. Pengujian Hipotesis Multikolinearitas

Pengujian hipotesis multikolinearitas berguna untuk mengetahui


apakah data yang diuji mengandung multikolinearitas atau tidak.
Hipotesis
H0 : prediktor saling bebas
H1 : Prediktor tidak saling bebas
Langkah-langkah pengujian sesuai pada metodologi dalam bab 3.
Sehingga didapatkan output Minitab seperti terlihat pada gambar
berikut:

17
Dari output minitab terlihat bahwa nilai VIF untuk semua prediktor
yaitu > 10 sehingga mengakibatkan tolak H0 yang berarti terdapat
multikolinearitas pada variabel-variabel prediktornya. Jadi dapat
disimpulkan bahwa sudah cukup bukti untuk mengatakan bahwa
terdapat hubungan atau korelasi antara keempat zat aditif yang
ditambahkan pada poros semen. Maka dalam hal ini variabel-
variabel prediktor memerlukan penanganan yaitu menggunakan
PCA.

b. Penanganan Data Multikolinearitas dengan PCA

Dalam menggunakan PCA maka data yang kita punya harus


dilakukan standarisasi untuk mengurangi nilai korelasinya dan
menyamakan satuan dari variabel-variabel prediktornya. Untuk
langkah-langkahnya seperti dijelaskan pada metodologi pada bab 3.
Dari langkah-langkah tersebut maka didapatkan model regresi
komponen W1 dan W2 yaitu yaitu:
𝑌 = 95.4 + 9.88W1 - 0.125W2.
Sedangkan model regresi baru setelah dilakukan substitusi ke nilai
W1 dan W2 sebelumnya yaitu:
𝑌 = 95.4 + 4.64338 Z1+ 5.50182Z2 – 3.84347Z3 – 5.34574Z4.
Dimana:
W1 = 0.476Z1 +0.564Z2 -0.394Z3 -0.548Z4
W2 = 0.509Z1 -0.414Z2 -0.605Z3 0.451Z4

Selanjutnya mencari b0,..b4 untuk model regresi yang yang


dikembalikan pada data awal yaitu secara berturut-turut:

18
Sehingga didapatkan nilainya adalah:

Maka didapatkanlah model regresi yang baik untuk peramalan yaitu:


𝑌 = 94.9796 + 0.134192 X1+ 0.022721X2 – 0.0936847X3 –
0.019080X4
19
Sehingga dapat disimpulkan bahwa model yang baru ini baik
digunakan untuk peramalan.
Interpretasi :
 Jika zat aditif 1 meningkat 1 unit maka, diharapkan rata-rata
panas semen meningkat sebesar 0.134192 kalor, dengan syarat
variabel lain dianggap tetap atau konstan.
 Jika zat aditif 2 meningkat 1 unit maka, diharapkan rata-rata
panas semen meningkat sebesar 0.022721 kalor, dengan syarat
variabel lain dianggap tetap atau konstan.
 Jika zat aditif 3 meningkat 1 unit maka, diharapkan rata-rata
panas semen menurun sebesar 0.093684 kalor, dengan syarat
variabel lain dianggap tetap atau konstan.
 Jika zat aditif 4 meningkat 1 unit maka, diharapkan rata-rata
panas semen menurun sebesar 0.019080 kalor, dengan syarat
variabel lain dianggap tetap atau konstan.

20
BAB V
PENUTUP

5.1 Kesimpulan

Untuk mendapatkan suatu model regresi yang baik untuk melakukan


peramalan atau pendugaan maka harus dilakukan pengujian asumsi. Salah-
satu asumsi yang harus dipenuhi yaitu asumsi non multikolinearitas. Untuk
mendeteksi multikolinearitas bisa dilakukan melalui pengujian hipotesis
Variance inflation factors (VIF). Jika VIF > 10 maka terdapat
multikolinearitas pada data tersebut. Oleh karena data mengandung
multikolinearitas maka harus dilakukan penanganan. Salah-satu caranya
yaitu menggunakan Principal Component Analysis (PCA).

Keuntungan penggunaan Principal Component Analysis (PCA)


dibandingkan metode lain :
1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga
masalah multikolinearitas dapat benar-benar teratasi secara bersih.
2. Dapat digunakan untuk segala kondisi data / penelitian.
3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal.
4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan
yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat
dibandingkan dengan pengunaan metode lain.

Dari permasalahan dalam tulisan ini didapatkan model regresi baru


yang baik dalam peramalan atau pendugaan yaitu:
𝑌 = 94.9796 + 0.134192 X1+ 0.022721X2 – 0.0936847X3 –
0.019080X4
Dengan interpretasi jika zat aditif 1 meningkat 1 unit maka, diharapkan
rata-rata panas semen meningkat sebesar 0.134192 kalor. Jika zat aditif 2
meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat
sebesar 0.022721 kalor. Jika zat aditif 3 meningkat 1 unit maka, diharapkan
rata-rata panas semen menurun sebesar 0.0936847 kalor. Jika zat aditif 4
meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar
0.019080 kalor. Dengan syarat masing-masing variabel lain konstan atau
tetap.

21
5.2 Saran

Semakin banyaknya metode yang digunakan dalam penanganan


masalah multikolinearitas membuat pekerjaan statistisi menjadi lebih
mudah. Namun, di balik semua itu tersirat juga kebingungan mengenai
perbedaan-perbedaan hasil dari beberapa metode dan pengerjaan dari
metode yang cukup ruwet. Sehingga statistisi bingung memilih metode
mana yang paling baik. Diharapkan dengan kemajuan teknologi yang
cukup cepat memungkinkan adanya cmetode-metode baru yang lebih
praktis dalam penanganan multikolinearitas.

22
DAFTAR PUSTAKA

Douglas A, lind dkk. 2008. Teknik-teknik Statistika dalam Bisnis dan


Ekonomi Menggunakan Kelompok Data Global.
http://books.google.co.id/books?id=3vQBfpNncpsC&pg=PA144&
dq=FAKTOR+VARIANS+INFLASI&hl=en&sa=X&ei=VJ8vU7T
HM8GHrgeJt4FI&redir_esc=y#v=onepage&q&f=false. Diakses 24
maret 2014.
Soemartini. 2008. Penyelesaian Multikolinearitas Melalui Metode Ridge
Regression. http://pustaka.unpad.ac.idwp
contentuploads200905penyelesaian_multikolinearitas.pdf. Diakses
22 maret 2014.
Anonim. 2012. Regresi Linier Berganda Dua Variabel Bebas.
http://www.fp.unud.ac.id/ind/wp-
content/uploads/mk_ps_agribisnis/ekonomitrika/3_.%20%20Analis
is%20Regresi%20%20Linier%20Berganda%20Dua%20Peubah.pd
f. Diakses 2 April 2014.
Soemartini. 2008. Principal Component Analysis (PCA) sebagai Salah Satu
Metode untuk Mengatasi Masalah Multikolinearitas.
http://elmurobbie.files.wordpress.com/2009/06/principal-
component-analysis-pca2.pdf. Diakses 2 april 2014.
Astutik, Suci. 2014. Modul Praktikum Analisis Regresi Lanjutan. Malang:
FMIPA-UB.

23
24
LAMPIRAN-LAMPIRAN

Lampiran 1. Output Uji VIF Pada Minitab

25
Lampiran 2. Tampilan Hasil Uji Multikolinearitas Menggunakan Minitab

26
27

Anda mungkin juga menyukai