Anda di halaman 1dari 8

ANALISIS REGRESI KOMPONEN UTAMA UNTUK MENGATASI MASALAH MULTIKOLINIERITAS DALAM ANALISIS REGRESI LINIER BERGANDA

Haris Bhakti Prasetyo, Dian Handayani, Widyanti Rahayu1 JURUSAN MATEMATIKA FMIPA-UNIVERSITAS NEGERI JAKARTA hariz_oke@yahoo.com

Abstraksi
Multikolinieritas adalah suatu kondisi dalam regresi linier berganda dimana antar variabel bebas saling berkorelasi. Masalah multikolinieritas pada regresi linier berganda mengakibatkan pengujian hipotesis parameter berdasarkan metode kuadrat terkecil memberikan hasil yang tidak valid. Indikasi masalah multikolinieritas dapat dideteksi dengan faktor inflasi ragam. Analisis komponen utama bertujuan menghasilkan variabel-variabel baru (komponen utama) yang saling ortogonal dan mereduksi dimensi data. Teknik yang digunakan untuk meregresikan komponen utama dengan variabel tak bebas melalui metode kuadrat terkecil disebut regresi komponen utama. Kata kunci : multikolinieritas, regresi linier berganda, analisis komponen utama, regresi komponen utama.

1. PENDAHULUAN
Analisis regresi linier adalah teknik statistika yang dapat digunakan untuk menjelaskan pengaruh variabel bebas (independent variable) terhadap variabel tak bebas (dependent variable). Salah satu asumsi yang harus dipenuhi untuk melakukan pengujian hipotesis terhadap parameter pada analisis regresi linier berganda adalah tidak terjadinya korelasi antar variabel bebas (multikolinier). Jika antarvariabel saling berkorelasi tinggi, pengujian hipotesis parameter berdasarkan metode kuadrat terkecil (least square method) memberikan hasil yang tidak valid, diantaranya variabel-variabel bebas yang seharusnya berpengaruh signifikan terhadap variabel tak bebas akan dinyatakan sebaliknya (tidak nyata secara statistik), tanda koefisien regresi dugaan yang dihasilkan bertentangan dengan kondisi aktual, penduga koefisien regresi bersifat tidak stabil sehingga mengakibatkan sulitnya menduga nilai-nilai variabel tak bebas yang tentunya akan mengakibatkan tidak akuratnya pada peramalan (Myers, 1991). Kondisi ini mendorong untuk dikembangkannya suatu cara atau teknik yang dapat digunakan untuk mengatasi masalah multikolinieritas pada analisis regresi linier berganda. Salah satu solusi yang dapat digunakan adalah dengan menggunakan analisis komponen utama (principal component analysis). Melalui penggunaan analisis komponen utama ini akan dihasilkan variabel-variabel baru yang merupakan kombinasi linier dari variabel-variabel bebas asal dan antarvariabel baru ini bersifat saling bebas. Variabel-variabel yang baru ini disebut komponen utama, dan selanjutnya diregresikan dengan variabel tak bebas. Tujuan dari penulisan paper ini yaitu Mengkaji analisis regresi komponen utama sebagai salah satu solusi untuk menangani multikolinieritas antar variabel bebas pada analisis regresi linier berganda, dan memberikan ilustrasi penerapan analisis regresi komponen utama.

2. LANDASAN TEORI
Definisi 2.1 Matriks X berukuran p p dikatakan matriks ortogonal jika XX = XX = I Definisi ini mempunyai dua akibat. Pertama, bentuk matriks ortogonal adalah persegi (square). Kedua, karena XX = XX = I , maka suatu matriks X dikatakan matriks ortogonal jika X 1 = X . Definisi 2.2 Misal matriks A berukuran p p , dan elemen dari A untuk baris i dan kolom j dinyatakan dalam aij . Trace dari matriks A ; tr ( A ) adalah jumlah dari elemen diagonalnya yang didefinisikan

2.1 Review Matriks

tr( A) = i =1aii
p

Matematika UNJ

Misal A adalah matriks berukuran p p dan x adalah vektor tak nol berukuran p 1 . Nilai eigen dari matriks A yang dinotasikan oleh adalah suatu nilai yang memenuhi persamaan berikut : | A I |= 0 . Untuk menentukan vektor eigen yang bersesuaian dengan suatu nilai eigen, maka nilai eigen yang telah diperoleh disubtitusi ke persamaan Ax = x . Definisi 2.4 Misal A adalah matriks simetrik berukuran p p , maka dekomposisi spektral matriks ri A diberikan oleh :

A = i ei ei = PP
i =1

(1)

dengan i adalah nilai eigen ke- i , dan ei adalah vektor eigen ke- i dari matriks A berukuran p 1 , P adalah suatu matriks yang elemen-elemennya vektor eigen berukuran p p , dan adalah matriks diagonal yang memiliki nilai eigen pada diagonal utamanya. Definisi 2.5 Misal matriks A berukuran m p , maka singular value decomposition untuk A didefinisikan sebagai berikut :
A = U V ( m p ) ( m m )( m p )( p p )

dengan U adalah matriks berukuran m m yang kolom-kolomnya adalah vektor eigen yang saling ortogonal dari AA , V adalah matriks berukuran p p yang kolom-kolomnya adalah vektor eigen yang saling ortogonal dari AA , dan adalah matriks diagonal berukuran m p dengan elemen diagonal utama

i 0 ; i = 1, 2, , min(m, p ) pada sel (i, i ) , dan elemen pada selain diagonal bernilai nol.

2.2 Analisis Regresi Linier Berganda


Analisis regresi linier berganda merupakan analisis regresi yang melibatkan lebih dari satu variabel bebas ( X 1 , X 2 , , X p ) dan mempunyai hubungan linier dengan variabel tak bebas (Y ) . Model regresi linier berganda yang melibatkan p buah variabel bebas adalah :
Y = 0 + 1 X 1 + 2 X 2 + + p X p +

(2)

Dalam notasi matriks menjadi : (3) dengan Y adalah vektor berukuran n 1 yang elemen-elemennya merupakan nilai-nilai amatan dari variabel tak bebas, X adalah matriks rancangan (design matrix) yang berukuran n ( p + 1) , adalah vektor yang berukuran ( p + 1) 1 yang elemen-elemennya berupa parameter (koefisien) regresi, adalah vektor galat berukuran n 1 , dimana galat diasumsikan E ( i ) = 0 , dan var( i ) = 2 ; i = 1, 2, , n . Pendugaan parameter regresi dengan menggunakan metode kuadrat terkecil berdasarkan model Y = X + adalah dengan meminimumkan jumlah kuadrat galat (JKG) dimana JKG dirumuskan sebagai berikut :
JKG = = (Y Xb )(Y Xb )

Y = X +

Jika X adalah matriks rancangan berukuran n ( p + 1) yang bersifat full rank dengan p + 1 n , maka penduga kuadrat terkecil untuk b adalah
1 = b = ( X'X ) X'Y

Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut : H 0 : j = 0 artinya koefisien regresi ke- j tidak signifikan atau variabel bebas ke- j tidak berpengaruh nyata terhadap Y H1 : j 0 artinya koefisien regresi ke- j signifikan atau variabel bebas ke- j berpengaruh nyata terhadap Y Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah : j thitung ( j ) = var( j )

(4)

Jika thitung ( j ) > t( n p 1); /2 , maka

H 0 ditolak yang artinya variabel bebas ke- j berpengaruh nyata

terhadap Y . Selang kepercayaan untuk j dengan tingkat kepercayaan 100(1 )% adalah

j t( n p 1); /2 var( j )

(5)

2.3 Multikolinieritas
Multikolinieritas adalah suatu kondisi dimana terjadi korelasi antara variabel bebas atau antar variabel bebas tidak bersifat saling bebas. Besaran (quantity) yang dapat digunakan untuk mendeteksi adanya multikolinier adalah faktor inflasi ragam (Variance Inflation Factor / VIF). VIF digunakan sebagai kriteria untuk mendeteksi multikolinier pada regresi linier yang melibatkan lebih dari dua variabel bebas. Nilai VIF lebih besar dari 10 mengindikasikan adanya masalah multikolinier yang serius (Ryan, 1998). VIF untuk koefisien regresi- j didefinisikan sebagai berikut :

VIFj =

1 1 R2 j

(6)

dengan : R 2 adalah koefisien determinasi antara X j dengan variabel bebas lainnya pada persamaan/model j dugaan regresi; dimana j = 1, 2, , p .

2.4 Analisis Komponen Utama


Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk menjelaskan struktur variansi-kovariansi dari sekumpulan variabel melalui beberapa variabel baru dimana variabel baru ini saling bebas, dan merupakan kombinasi linier dari variabel asal. Selanjutnya variabel baru ini dinamakan komponen utama (principal component). Secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data dan untuk kebutuhan interpretasi.

2.4.1 Komponen utama yang Dibentuk Berdasarkan Matriks Kovariansi


nilai eigen dan vektor eigen yang saling ortonormal adalah

Misal merupakan matriks kovariansi dari vektor acak X = [ X 1 , X 2 , X p ] dengan pasangan

(1 , e1 ),(2 , e 2 ), , ( p , e p ) . dimana
i = 1, 2, , p
(7)

1 2 p 0 , maka komponen utama ke-i didefinisikan sebagai berikut :


Wi = ei X = ei1 X 1 + ei 2 X 2 + + eip X p ,

dimana W1 adalah komponen pertama yang memenuhi maksimum nilai e1e1 = 1 . W2 adalah komponen kedua yang memenuhi sisa keragaman selain komponen pertama dengan memaksimumkan nilai e e 2 = 2 . 2
W p adalah komponen ke- p yang memenuhi sisa keragaman selain W1 ,W2 , ,W p 1 dengan memaksimumkan
nilai ep e p = p . Urutan W1 ,W2 , ,W p harus memenuhi persyaratan 1 2 p . Sementara itu, proporsi total variansi yang dijelaskan komponen utama ke- k adalah : k k Proporsi total variansi populasi yang = = dijelaskan oleh komponen utama ke k tr( ) 1 + 2 + + p dengan k = 1, 2, , p

(8)

2.4.2 Komponen utama yang Dibentuk Berdasarkan Matriks Korelasi


Selain berdasarkan matriks kovariansi, komponen utama juga dapat dibentuk berdasarkan matriks korelasi. Hal ini dilakukan jika variabel-variabel bebas yang diamati mempunyai perbedaan range yang sangat besar. Komponen utama ke- i ; Wi yang dibentuk berdasarkan variabel-variabel yang telah dibakukan
Z = ( Z1 , Z 2 , , Z p ) dengan cov( Z) = didefinisikan sebagai berikut :

Wi = ei1 Z1 + ei 2 Z 2 + + eip Z p

i = 1, 2, , p

(9)

Sementara itu, proporsi total variansi yang dapat dijelaskan oleh komponen utama ke- k berdasarkan variabel bebas yang telah dibakukan didefinisikan sebagai berikut : k Proporsi total variansi populasi yang = k (40) = p dijelaskan oleh komponen utama ke k tr() dengan k adalah nilai eigen dari , dan k = 1, 2, , p

2.4.3 Kriteria Pemilihan Komponen Utama


Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi data asal yang semula terdapat p variabel bebas menjadi k komponen utama (dimana k < p ). Kriteria pemilihan k yaitu : 1. Proporsi kumulatif keragaman data asal yang dijelaskan oleh k komponen utama minimal 80% , dan proporsi total variansi populasi bernilai cukup besar (Johnson, 2002). 2. Dengan menggunakan scree plot yaitu plot antara i dengan i , pemilihan nilai k berdasarkan scree plot ditentukan dengan melihat letak terjadinya belokan dengan menghapus komponen utama yang menghasilkan beberapa nilai eigen kecil membentuk pola garis lurus (Rencher, 1998).

3. REGRESI KOMPONEN UTAMA


Cara pembentukan regresi komponen utama melalui analisis komponen utama ada dua cara. Pertama, pembentukan komponen utama berdasarkan matriks kovariansi (peragam). Kedua, pembentukan komponen utama berdasarkan matriks korelasi. Kedua cara tersebut digunakan tergantung pada kondisi range amatan pada variabel bebas.

3.1 Regresi komponen utama yang dibentuk berdasarkan matriks kovariansi

Misal matriks P adalah matriks ortogonal dengan memenuhi persamaan P P = PP = I . Karena W = Xc P , maka proses persamaan regresi linier berganda menjadi regresi komponen utama yaitu : Y = Xc + Y = X c PP' + (51) Y = W + Model regresi komponen utama yang telah direduksi menjadi k komponen adalah Y = 0 1 + Wk k + (62)

dengan Xc merupakan matriks yang elemen-elemennya dikurang dengan rataannya (centered) yang mensyaratkan rataan nol dan variansi 2 , Y adalah variabel tak bebas, 0 adalah intersep, 1 adalah vektor yang elemen-elemennya adalah 1 berukuran n 1 , Wk adalah suatu matriks berukuran n k yang elemennya terdapat komponen utama, k adalah vektor koefisien komponen utama berukuran k 1 , dan adalah vektor galat berukuran n 1 .

3.2 Regresi komponen utama yang dibentuk berdasarkan matriks korelasi


Persamaan regresi komponen utama berdasarkan matriks korelasi pada dasarnya hampir sama dengan persamaan regresi komponen utama berdasarkan matriks korelasi yaitu variabel X 1 , X 2 , , X p diganti dengan variabel baku Z1 , Z 2 , , Z p . Umumnya proses untuk memperoleh persamaan regresi komponen utama berdasarkan matriks korelasi mempunyai proses yang sama pada penurunan persamaan regresi komponen utama berdasarkan matriks kovariansi yaitu pada formula (11), dan (12), maka model regresi komponen utama berdasarkan matriks korelasi adalah sebagai berikut : Y = 0 1 + Wk k + (73) dengan Y adalah variabel tak bebas, 0 adalah intersep, 1 adalah vektor yang elemen-elemennya adalah 1 berukuran n 1 , Wk adalah suatu matriks berukuran n k yang elemennya terdapat komponen utama, dimana Wk = ZPk , k adalah vektor koefisien komponen utama berukuran k 1 , dan adalah vektor galat berukuran n 1 .

3.3 Pendugaan Koefisien Regresi Komponen Utama


Misal koefisien a0 , a1 , , a p merupakan penduga regresi komponen utama dari koefisien

0 , 1 , , p . Pendugaan koefisien dengan maksimum likelihood menghasilkan dugaan yang sama pada
kuadrat terkecil, namun untuk memenuhi asumsi normal, pendugaan koefisien menggunakan maksimum likelihood. Prosedur menduga koefisien ' = ( 0 , 1 , , p ) dengan metode maksimum likelihood yaitu dengan cara mengkalikan fungsi densitas f ( i ) , mengambil nilai logaritma ( ln ), dan diturunkan terhadap

a = (a0 , a1 , , a p ) , kemudian disamakan dengan nol. Pendugaan koefisien regresi komponen utama yang
diperoleh dari maksimum likelihood adalah sebagai berikut : ln L(1 , 2 , , n ; 2 ) n 1 ( 1/2 2 )[( Y Wa )( Y Wa )] ln e =0 a a i =1 2 dan hasil dari (14) adalah a = ( W W )1 W Y (84)

(95)

Misal a k = (a1 , a2 , , ak ) merupakan penduga koefisien regresi komponen utama dengan k komponen, maka penyederhanaan pada (15) yaitu : a k = ( Wk Wk ) 1 WkY (106) = k 1 ( ( X c Pk )Y ) dengan 1 merupakan matriks diagonal yang mempunyai elemen diagonal utama ((n 1)1 ) 1 , ((n 1)2 ) 1 , , ((n 1)k ) 1 , dan Pk adalah matriks berukuran k k yang elemen-elemennya merupakan vektor eigen, dimana masing-masing vektor eigen e1 , e 2 , , e k berukuran k 1 . Jika menggunakan regresi komponen utama berdasarkan matriks korelasi, maka pendugaan parameter (koefisien) adalah sebagai berikut : a k = k 1 ( (ZPk )Y ) dan a0 = Y (117)

3.4 Transformasi Komponen Utama


Transformasi komponen utama merupakan variabel baru (W ) yang terdapat dalam regresi komponen utama diubah sedemikian sehingga menjadi variabel asal ( X ) . Hasil transformasi komponen utama menjadi variable Xc yang mempunyai koefisien regresi * yaitu :
f : W Xc

Y = 0 1 + X c * +

b* = ((n 1)m ) 1 e m e X Y dan m c


m =1

b0 = Y

Hasil transformasi variable Xc menjadi variable X yang mempunyai koefisien regresi * yaitu :
f : Xc X
* Y = + 1* X 1 + 2 X 2 + + * X p p

= Y * X
Hasil transformasi komponen utama menjadi variable Z yang mempunyai koefisien regresi * yaitu :
f :W Z

Y = 0 1 + Z* +

b* = ((n 1)m ) 1 e m e Z Y dan m c


m =1

b0 = Y

Hasil transformasi veriabel Z menjadi variable X yang mempunyai koefisien regresi yaitu :
f :Z X

g = V1/ 2 b*

dan g 0 = Y b* V1/ 2 X

3.5 Nilai Ekspektasi dan Variansi Penduga Koefisien Regresi Komponen Utama
Nilai
m = k +1

ekspektasi

bias

penduga

koefisien

regresi

komponen

utama

yaitu

((n 1)

) 1 e m e X Y . Sementara itu, Nilai variansi regresi komponen utama adalah 2 ((n 1) j ) 1 m c

dimana nilai cov(Wi , W j ) = 0 ; i, j = 1, 2, , p dan i j . Sementara itu nilai variansi * adalah j

2 k e2 emj 2 j adalah , dan nilai variansi penduga mj . n 1 m =1 m jj (n 1) m =1 m k

3.6 Ilustrasi Regersi Komponen Utama


Penyelesaian ilustrasi regresi komponen utama menggunakan data produk domestik regional bruto (PDRB) seluruh wilayah propinsi di Indonesia. Data sekunder untuk ilustrasi ini diperoleh dari badan pusat statistik (BPS) Jakarta bagian neraca regional yang dapat dilihat pada. Data dianalisis dengan menggunakan program matlab versi 6.1 yang algoritma programnya, dan microsoft excel 2003.

3.6.1 Analisis dengan Regresi Linier Berganda


Berdasarkan pada lampiran F, model regresi linier berganda dengan menggunakan metode kuadrat terkecil untuk menduga koefisien regresi adalah

Y = 5.02 2.52 107 X 1 + 4.28 107 X 2 + 2.92 107 X 3 7.74 106 X 4 1.98 106 X 5 + 2.06 107 X 6 + 3.85 106 X 7 + 5.53 107 X 8 1.13 106 X 9 Adanya gejala multikolinieritas dapat diperiksa dengan matriks korelasi, nilai VIF, dan melakukan uji parsial pada tabel 3.1 : Tabel 3.1: Uji Signifikansi Koefisien Regresi Komponen Utama
Variabel X1 X2 X3 X4 X5 X6 X7 X8 X9 Koefisien -0.000000252 0.000000428 0.000000292 -0.00000774 -0.00000198 0.000000206 0.00000385 0.000000529 -0.00000133 SE.Koefisen 0.000000167 0.0000000632 0.0000000707 0.00000116 0.000000669 0.000000122 0.000000527 0.000000245 0.000000414 T-hitung -1.5011 6.4575 3.9833 -6.6593 -2.9631 1.6640 7.2922 2.2627 -3.2172 VIF 30.1455 4.8539 33.4939 23.6515 117.8123 51.5455 61.2596 154.7622 98.6234

Beberapa indikasi adanya multikolinieritas yaitu ada 2 variabel ( X 1 dan X 6 ) yang tidak signifikan

thitung ( j ) 2.08 , dan nilai VIF lebih besar dari 10 pada tabel 3.2 (Ryan, 1998).

3.6.2 Penyelesaian dengan Regresi Komponen Utama


Nilai eigen, proporsi total variansi, proporsi total variansi kumulatif, dan grafik scree plot yaitu : Tabel 3.2: Nilai eigen, proporsi total variansi, proporsi variasi kumulatif

1
Nilai eigen Proporsi Total Variansi Proporsi Variansi Kumulatif 6.1433 0.6826 0.6826

2
1.6229 0.1803 0.8629

3
0.9490 0.1054 0.9684

4
0.2180 0.0242 0.9926

5
0.0255 0.0028 0.9954

6
0.0161 0.0018 0.9972

7
0.0131 0.0015 0.9987

8
0.0085 0.0009 0.9996

9
0.0036 0.0004 1.0000

Gambar 3.1: Scree plot komponen utama

Berdasarkan tabel 3.2, komponen yang dapat mewakili dari 9 komponen ada 8 komponen utama sesuai dengan kriteria 80% dari proporsi kumulatif keragaman, akan tetapi kontribusi proporsi keragaman 5 , 6 , , 9 hanya menjelaskan 0.28%, 0.18%, 0.15%,0.09%, 0.04% . Ini berarti komponen ke-5 sampai ke-9 tidak ikut disertakan dalam model karena nilai keragaman data asal yang dapat dijelaskan oleh komponen utama bernilai relatif kecil (Johnson, 1998). Sesuai gambar scree plot pada gambar 3.1 menjelaskan bahwa komponen yang dilibatkan dalam model hanya 4 komponen karena setelah belokan ke-4, grafik scree plot membentuk pola linier yang artinya komponen yang membentuk pola tersebut tidak disertakan dalam model. Uji hipotesis secara parsial penduga koefisien regresi komponen utama ke- 1, 2,3, 4 sesuai formula a k = (n 1) 1 ( (ZPk )Y ) adalah : k Tabel 3.3: Uji signifikansi koefisien regresi komponen utama
Komponen Utama W1 W2 W3 W4 Koefisien -1.5360 1.2835 -6.7530 -0.9504 Standar Error 0.2827 0.5499 0.7192 1.5006 T-hitung -5.4340 2.3339 -9.3901 -0.6333 VIF 1 1 1 1

Komponen utama ke-4 tidak signifikan ( thitung ( j ) 2.05) pada tabel 3.5, sehingga hanya komponen
utama ke- 1, 2,3 yang dilibatkan dalam model. Adapun model regresi komponen utama dengan 3 komponen adalah : Y = 8.4695 1.5360W1 + 1.2835W2 6.7530W3 dimana a0 = Y = 8.4695 Model regresi linier berganda yang melibatkan variabel Z yang merupakan hasil transformasi dari variabel W (pada 3.26) sebagai variabel bebas adalah : = 8.4695 1.800 Z + 5.541Z + 0.539 Z 1.408Z + 2.504 Z 0.317 Z + 0.618Z + 2.483Z + 0.689Z dima Y
1 2 3 4 5 6 7 8 9

na b = a0 = 8.4695 , dan nilai T-hitung dari masing=masing variabel bebas yaitu -5.4567, 8.3933, 2.6158 , -

* 0

5.8600, 9.5653, -2.1774, 4.9688, 7.5615, 4.7619. Karena masing-masing nilai thitung ( * ) 2.08 , maka semua j
variabel bebas Z berpengaruh nyata terhadap Y . Jika regresi linier berganda yang terdapat variabel Z ditransformasi menjadi variabel X sebagai variabel bebasnya, maka model regresinya adalah : = 4.68 0.16 10 6 X + 0.50 10 6 X + 0.02 10 6 X 0.97 10 6 X + 0.44 106 X 0.02 106 X Y 1 2 3 4 5 6

+ 0.13 106 X 7 + 0.14 106 X 8 + 0.08 106 X 9


dimana masing-masing penduga koefisien regresi ( g1 , g 2 , , g p ) diperoleh dari formula g = V1/2 b* , dan

g 0 = Y b * V1/2 X .

3.6.3 Perbandingan Regresi Linier Berganda dan Regresi Komponen Utama


Salah satu kriteria untuk membandingkan suatu model regresi adalah dengan menggunakan standar error (Fekedulegn, 2002). Untuk membandingkan model regresi linier berganda dan regresi komponen utama, akan dilihat nilai standar error penduga koefisien dari masing-masing model tersebut. Nilai standar error dari metode kuadrat terkecil dan metode komponen utama adalah sebagai berikut: Tabel 3.8: Perbandingan standar error metode kuadrat terkecil dan komponen utama
Variabel X1 X2 X3 X4 X5 X6 X7 X8 X9 Kuadrat Terkecil Koefisien Standar Error -2.52x10-7 1.67x10-7 4.28x10-7 0.63x10-7 -7 2.92x10 0.71x10-7 -7.74x10-6 11.6x10-7 -1.98x10-6 6.69x10-7 2.06x10-7 1.22x10-7 3.85x10-6 5.27x10-7 5.29x10-7 2.45x10-7 -1.33x10-6 4.14x10-7 Komponen Utama Koefisien Standar Error -0.16 10-6 2.86 10-8 0.50 10-6 6.00 10-8 -6 0.02 10 8.37 10-9 -0.97 10-6 1.66 10-7 0.44 10-6 4.57 10-8 -0.02 10-6 8.37 10-9 -6 0.13 10 2.65 10-8 0.14 10-6 1.84 10-8 0.08 10-6 1.79 10-8

Berdasarkan tabel 3.8, nilai penduga koefisien standar error paling kecil adalah metode komponen utama pada regresi komponen utama daripada metode kuadrat terkecil pada regresi linier berganda. Secara visual, perbandingan standar error penduga koefisien regresi linier berganda dan regresi komponen utama adalah :
1. 40E -06

1. 20E -06

1. 00E -06

8. 00E -07 Regr esi Li ni er B er ganda Regr esi K omponen Ut ama 6. 00E -07

4. 00E -07

2. 00E -07

0. 00E +00 X1 X2 X3 X4 X5 V ar i abel X6 X7 X8 X9

Gambar 3.2: Grafik standar error regresi linier berganda dan regresi komponen utama Berdasarkan gambar 3.2, plot standar error penduga koefisien regresi komponen utama berada di bawah plot standar error penduga koefisien regresi linier berganda. Hal ini dapat menunjukkan hasil prosedur untuk menduga komponen utama lebih tepat dan dipercaya (reliable) terhadap variabel-variabel bebas daripada metode kuadrat terkecil (Fekedulegn, 2002).

4. KESIMPULAN
Berdasarkan ilustrasi pada sub bab 3.6, analisis dengan regresi komponen utama cukup efektif dalam mengatasi multikolinieritas. Ini ditunjukkan pada tabel 3.1 dimana nilai VIF masing-masing komponen utama bernilai satu, dan jika dilakukan uji parsial pada tabel 3.3, nilai T-hitung masing-masing variabel Z lebih besar dari T-tabel (bernilai 2.08) artinya masing-masing variable berpengaruh nyata terhadap Y. Perbandingan regresi komponen utama dengan regresi linier berganda menggunakan kriteria standar error penduga koefisien. Karena standar error penduga koefisien regresi komponen utama bernilai kecil, maka hasil prosedur untuk menduga komponen utama pada regresi komponen utama lebih tepat dan dipercaya (reliable) daripada metode kuadrat terkecil.

5. DAFTAR PUSTAKA
Fekedulegn, B.D., Colbert,J.J., Hicks, Jr.R.R. & Schuckers, M.E. 2002. Coping with Multicollinearity: An Example on Application of Principal Components Regression in Dendroecology.www.fs.fed.us/ne/morgantown/4557/dendrochron/rpne721.pdf. 13 September 2006, pkl 21.00 WIB. Johnson, R.A. & Wichern, D.W. 2002. Applied Multivariate Statistical Analysis, 5th edition. Pearson Education International. Myers, R.H. & Milton, J.S. 1991. A First Course In The Theory Of Linier Statistical Models. PWS-KENT Publishing Company, Boston. Rencher, A.C. 1998. Multivariate Statistical Inference and Application. Wiley-Interscience Publication, Brigham.