Anda di halaman 1dari 26

TUGAS EKONOMATRIKA

Judul:
ANALISIS REGRESI KOMPONEN UTAMA UNTUK
MENGATASI MASALAH MULTIKOLINIERITAS
DALAM ANALISIS REGRESI LINIER BERGANDA

IST AKPRIND YOGYAKARTA


2017
NAMA KELOMPOK

Frederikus B. Lega Like Erna Widyawati


(151061008) (151061039)
PENDAHULUA
N
Salah satu asumsi yang harus dipenuhi untuk melakukan pengujian hipotesis terhadap
parameter pada analisis regresi linier berganda adalah tidak terjadinya korelasi antar
variabel bebas (multikolinier).

Salah satu solusi yang dapat digunakan dalam menghadapi multikoloniaritas berdasarkan
metode kuadrat terkecil yang memberikan hasil yang tidak valid, adalah dengan
menggunakan analisis komponen utama (principal component analysis/PCA).

Maka masalah yang dibahas dalam penelitian ini adalah menggunakan analisis regresi
komponen utama untuk mengatasi masalah multikolinieritas antara variabel-variabel
bebas sehingga diperoleh persamaan regresi linier yang lebih baik dalam analisis linier
berganda.
LANDASAN TEROI

Metode Kuadrat Terkecil


1.

Prinsip metode kuadrat terkecil diperlukan untuk menafsir dan


sehingga minimum. Artinya, akan dicari dan sedemikian hingga
model regresi yang terestimasi dekat sekali dengan model regresi
yang sesungguhnya. Secara matematis, dan dipilih sedemikian
hingga bentuk berikut terpenuhi (Djalal Nachrowi et al, 2002):
Multikoloniaritas
2.
Istilah Multikolinieritas mula-mula ditemukan
oleh Ragnar Frisch pada tahun 1934 yang
berarti adanya hubungan linier antara
variabel .

2.
Menurut Gujarati (2003), multikolinearitas adalah adanya hubungan linear yang
sempurna di antara beberapa atau semua variabel bebas dalam model regresi.
Bedasarkan hubungan yang terjadi antara variabel-variabel bebas, multikolinearitas
dibedakan menjadi dua:
a. Multikolinearitas Sempurna
Hubungan linear yang sempurna terjadi apabila berlaku hubungan sebagai berikut:

dimana 𝜆1, 𝜆2, 𝜆3, … , 𝜆𝑘 seluruhnya tidak sama dengan nol ( 𝜆𝑖 ≠ 0, 𝑖 =1, 2, 3, … , 𝑘).
Untuk mengetahui multikolinearitas sempurna dimisalkan 𝜆2 ≠ 0, sehingga
persamaan dapat ditulis sebagai berikut:

Persamaan tersebut menunjukkan bagaimana 𝑋2 berhubungan secara linear


sempurna dengan sisa variabel lainnya.
Multikoloniaritas
2.

b. Multikolinearitas kurang sempurna


Multikolinearitas kurang sempurna terjadi jika berlaku suatu hubungan
sebagai berikut:

dimana 𝜀𝑖 adalah galat sisa dengan syarat galat yang saling bebas dan
menyebar normal , untuk mengetahui adanya multikolinearitas tidak
sempurna, maka dimisalkan 𝜆2 ≠ 0, sehingga persamaan dapat ditulis
sebagai berikut:

yang menunjukkan bahwa 𝑋2 tidak berhubungan linear sempurna dengan


sisa variabel lainnya , sebab tergantung pada 𝜀𝑖 .
Multikoloniaritas

2.
Pada analisis regresi, multikolinieritas
dikatakan ada apabila beberapa kondisi
berikut dipenuhi:
a. Dua variabel berkorelasi sempurna (oleh
karena itu vektor-vektor yang
menggambarkan variabel tersebut
adalah kolinier).
b. Dua variabel bebas hampir berkorelasi
sempurna yaitu koefisien korelasinya
mendekati plus mines 1.
c. Kombinasi linier dari beberapa variabel
bebas berkorelasi sempurna atau
mendekati sempurna dengan variabel
bebas yang lain.
d. Kombinasi linier dari satu sub himpunan
variabel bebas berkorelasi sempurna
dengan satu kombinasi linier dari sub-
himpunan variabel bebas yang lain.
Dampak multikolinearitas (Montgomery,2006 )
3.
Menurut Montgomery (2006) dampak multikolinearitas
dapat mengakibatkan koefisien regresi yang dihasilkan
oleh analisis regresi berganda menjadi sangat lemah atau
tidak dapat memberikan hasil analisis yang mewakili sifat
atau pengaruh dari variabel bebas yang bersangkutan.
Dalam banyak hal masalah multikolinearitas dapat
menyebabkan uji T menjadi tidak signifikan padahal jika
masing-masing variabel bebas diregresikan secara terpisah
dengan variabel tak bebas (simple regression) uji T
menunjukkan hasil yang signifikan.
Pendeteksian Multikoloniaritas

4.

Ada beberapa cara untuk mengetahui ada


tidaknya multikolinieritas diantaranya adalah:

a. Nilai korelasi (korelasi antar variable


bebas)
b. Faktor variansi inflasi (Varience Inflation
Factor/ VIF)
c. Nilai Determinan
d. Jika pengujian F untuk regresi adalah
nyata tetapi pengujian pada koefisien
regresi secara individu tidak nyata, maka
multikolinieritas mungkin menjadi ada.
Analisis Komponen Utama

5.

Analisis komponen utama merupakan teknik statistik yang digunakan untuk menjelaskan
struktur variansi-kovariansi dari sekumpulan variabel melalui beberapa variabel baru dimana
variabel baru ini saling bebas, dan merupakan kombinasi linier dari variabel asal. Selanjutnya
variabel baru ini dinamakan komponen utama.
Prosedur PCA bertujuan untuk menyederhanakan variabel yang diamati dengan cara
menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi
diantara variabel prediktor melalui transformasi variabel prediktor asal ke variabel baru yang
tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component.
5.

Keuntungan penggunaan Principal Component Analysis (PCA) dibandingkan metode


lain:
1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga masalah
multikolinearitas dapat benar-benar teratasi secara bersih.
2. Dapat digunakan untuk segala kondisi data / penelitian.
3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal.
4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan yang tinggi, akan
tetapi kesimpulan yang diberikan lebih akurat dibandingkan dengan pengunaan metode
lain (Soemartini, 2008)
Model regresi komponen utama dapat dirumuskan sebagai:

Dimana:
Wj = Peubah prediktor komponen utama yang merupakan kombinasi linear dari semua peubah baku Z
(j=1,2,…,m),
= konstanta,
= koefisien regresi (j=1,2,…,m),
ε = faktor pengganggu,
m = banyaknya komponen utama, m ≤ p.

Regresi komponen utama dalam bentuk matrik:


Y = XV𝛽 + ε
= Wδ + ε
Penduga parameter regresi komponen utama (δ)
𝛅= Y
Dimana:
Y = vektor peubah respon (nx1),
X = matrik peubah prediktor (nx(p+1)),
𝛽 = vektor parameter regresi ((p+1)x1),
ε = vektor galat (nx1),
V = matrik (pxp) yang berisi vektor eigen yang telah dinormalisir dari matrik korelasi X yang
bersesuaian dengan nilai eigen λ1, λ2,….,λp.
W = (, ,….., ) = ZV = matrik komponen utama dari

Z( =
Regresi Komponen Utama
6.
Regresi komponen utama merupakan teknik analisis regresi yang dikombinasikan dengan
analisis komponen utama, dimana analisis komponen utama dijadikan sebagai tahap analisis.
Dua cara pembentukan regresi utama:

1. Regresi komponen utama yang dibentuk berdasarkan matriks kovariansi


Model regresi komponen utama yaitu :
6.
2. Regresi komponen utama yang dibentuk berdasarkan matriks korelasi
model regresi komponen utama berdasarkan matriks korelasi adalah sebagai berikut:
6.
Nilai Ekspektasi dan Variansi Penduga Koefisien Regresi Komponen Utama:
Nilai ekspektasi bias penduga koefisien regresi komponen utama yaitu:

Sementara itu, nilai variansi regresi komponen utama adalah


CONTOH KASUS

1.
Tabel. 3.1 Data JUB, Kurs Rupiah terhadap USD,suku bunga Bank Sentral, IHK, Perbedaan Suku Bunga
Indonesia dan US, SUN, dan SBI
2.
Mendeteksi Multikolinearitas Menggunakan Software Minitab

Dari output minitab terlihat bahwa nilai VIF untuk prediktor Kurs Rupiah terhadap USD, IHK, dan
SUN yaitu > 10 sehingga mengakibatkan tolak H0 yang berarti terdapat multikolinearitas pada
variabel-variabel prediktor (Kurs Rupiah terhadap USD, IHK, dan SUN). Jadi dapat disimpulkan
bahwa sudah cukup bukti untuk mengatakan bahwa terdapat hubungan atau korelasi antara Kurs
Rupiah terhadap USD, IHK, dan SUN yang terhadap JUB. Maka dalam hal ini variabel-variabel
prediktor memerlukan penanganan yaitu menggunakan PCA.
JUB Kurs Suku Perbedaa SUN SBI
IHK
Ket (puluhan Rupiah Bunga n Suku (milyar (milyar
(persen)
triliyun terhadap Bank Bunga rupiah) rupiah)
Rata-rata 302,8939 9584,833 6,277778 134,1783 6,027778 741,5532 116,2685
-527,8333333 -9578,333333 -9458,543 -9578,583333 -8960,60233 -9389,51933
-761,8333333 -9578,083333 -9458,373 -9578,333333 -8957,68133 -9390,19833
-875,8333333 -9578,083333 -9458,783 -9578,333333 -8945,48133 -9354,68533
-1010,833333 -9578,083333 -9459,173 -9578,333333 -8942,35133 -9354,76233
-1047,833333 -9578,083333 -9459,023 -9578,333333 -8934,02633 -9386,96233
-987,8333333 -9578,083333 -9458,333 -9578,333333 -8930,35833 -9398,88733
-1076,833333 -9578,083333 -9457,483 -9578,333333 -8921,20833 -9402,83733
-1006,833333 -9578,083333 -9456,293 -9578,333333 -8919,05233 -9413,60533
-761,8333333 -9578,083333 -9455,943 -9578,333333 -8926,47033 -9435,60533
-749,8333333 -9578,333333 -9456,093 -9578,583333 -8911,81533 -9441,76433
-414,8333333 -9578,833333 -9455,653 -9579,083333 -8900,06533 -9446,82333
-516,8333333 -9578,833333 -9454,923 -9579,083333 -8900,21533 -9465,05633
-584,8333333 -9578,833333 -9453,933 -9579,083333 -8888,19733 -9478,47833
-499,8333333 -9579,083333 -9453,873 -9579,333333 -8869,99633 -9485,75933
-404,8333333 -9579,083333 -9453,783 -9579,333333 -8877,38633 -9490,33633
-394,8333333 -9579,083333 -9453,513 -9579,333333 -8868,93633 -9489,33633
-19,83333333 -9579,083333 -9453,423 -9579,333333 -8863,31133 -9489,16933
-104,8333333 -9579,083333 -9452,603 -9579,333333 -8853,86133 -9495,09933
V= (Xi-Xbar)
-99,83333333 -9579,083333 -9451,673 -9579,333333 -8845,84133 -9502,65533
-24,83333333 -9579,083333 -9450,403 -9579,333333 -8842,98833 -9503,35633
3,166666667 -9579,083333 -9450,383 -9579,333333 -8834,06833 -9516,64533
30,16666667 -9579,083333 -9450,163 -9579,333333 -8813,85933 -9515,27333
20,16666667 -9579,083333 -9450,073 -9579,333333 -8813,31733 -9509,02833
85,16666667 -9579,083333 -9449,343 -9579,333333 -8827,60233 -9505,96033
113,1666667 -9579,083333 -9447,953 -9579,333333 -8814,45233 -9500,56133
82,16666667 -9579,083333 -9446,923 -9579,333333 -8800,96533 -9496,76333
134,1666667 -9579,083333 -9446,053 -9579,333333 -8797,50333 -9492,83433
137,1666667 -9579,083333 -9446,193 -9579,333333 -8786,20333 -9489,45433
217,1666667 -9579,083333 -9446,233 -9579,333333 -8767,22033 -9490,10433
344,1666667 -9578,833333 -9444,803 -9579,083333 -8776,06933 -9502,91333
693,1666667 -9578,333333 -9440,203 -9578,583333 -8758,21933 -9510,73233
1339,166667 -9577,833333 -9438,583 -9578,083333 -8744,02233 -9518,75433
2028,166667 -9577,583333 -9439,093 -9577,833333 -8729,66333 -9519,85933
1649,166667 -9577,583333 -9438,963 -9577,833333 -8688,65833 -9495,57333
2392,166667 -9577,333333 -9438,793 -9577,583333 -8669,65833 -9495,53833
2604,166667 -9577,333333 -9437,993 -9577,583333 -8676,75533 -9493,44133
Hasil Manual Excel
Nilai eigen yang lebih dari satu mewakili semua data.
3.
Mengatasi Multikolinearitas dengan PCA Menggunakan Minitab

Langkah-langkah dalam mengatasi adanya


multikolinearitas dapat dilakukan sebagai
berikut:
1. Melakukan standarisasi nilai peubah
prediktor.
2. Sediakan tabel pada worksheet untuk Z0,
Z1, Z2, Z3 ,Z4,Z5 dan Z6. Untuk nilai Z0
isikan dengan angka 1.
3. Klik calc => standardize.
4. Pada input column masukan X1, X2, X3,
X4,X5 dan X6 dan pada store results
masukan Z1, Z2, Z3,Z4,Z6 dan Z6.
5. Klik ok maka akan muncul data yang
sudah distandarisasi.
6. Selanjutnya membentuk mencari regresi
komponen utama. Sediakan kolom W1,W2,
W3,W4,W5 dan W6 pada worksheet. Klik stat
=> multivariate => principal components
analysis.
7. Pada kolom variables masukan Z1, Z2,
Z3,Z4,Z5, dan Z6 dan Type of matrix pilih
correlation.
8. Klik storage, pada kolom scores masukan
W1,W2, W3,W4,W5 dan W6
9. Klik ok => ok.
10. Tampilan pada session sebagai berikut
11. Nilai Eigenvalue dari W1 dan W2 sampai > 1 maka bisa mewakili data yang lain.
langkahnya klik Stat – Regressions – Regression
12. Substitusikan nilai W1 dan W2 pada persamaan regresi yang baru. Sehingga akan
dihasilkan persamaan regresi PCA.
13. Mencari mean dan variance. Klik stat => basic statistics => store descriptive statistics.
Sehingga muncul gambar berikut:

Anda mungkin juga menyukai