Anda di halaman 1dari 37

PENGGUNAAN METODE REGRESI KOMPONEN UTAMA

UNTUK MENGATASI MASALAH MULTIKOLINEARITAS

Tugas Akhir

Untuk memenuhi sebagian persyaratan


mencapai derajat diploma tiga

Oleh:
Nur Khairiyah Sam
F3A211029

PROGRAM STUDI D-III STATISTIKA


PROGRAM PENDIDIKAN VOKASI
UNIVERSITAS HALU OLEO
KENDARI
2015
RIWAYAT HIDUP

Nur Khairiyah Sam, lahir di Tinobu Kecamatan Lasolo Kabupaten Konawe


Utara pada tanggal 14 Januari 1994. Penulis adalah anak pertama dari pasangan
suami istri bapak Drs. Samir dan ibu Dra. Masidah. Penulis adalah anak pertama dari
dua bersaudara.
Jenjang pendidikan yang telah ditempuh oleh penulis adalah tamat dari Sekolah
Dasar Negeri 1 Andumowu pada tahun 2005, tamat dari Madrasah Tsanawiyah
Negeri 1 Kendari pada tahun 2008, dan tamat Sekolah Menengah Atas Negeri 1
Lasolo di Konawe Utara pada tahun 2011. Pada tahun 2011, penulis melanjutkan
pendidikan di Program Studi D-III Statistika Universitas Halu Oleo (UHO) Kendari
dengan dan mengikuti beberapa selesai tahun 2015.
KATA PENGANTAR

Alhamdulillahirobbilalamiin, segala puji bagi Allah SWT yang telah


mencurahkan rahmat dan Karunia-Nya sehingga penulis mampu menyelesaikan
penulisan Tugas Akhir dengan judul Penggunaan Metode Regresi Komponen
Utama untuk Mengatasi Masalah Multikolinearitas ini dengan baik. Penulisan
Tugas Akhir ini disusun dalam rangka memenuhi persyaratan melengkapi
persyaratan dalam menyelesaikan studi pada Program Studi D-III Statistika, Program
Pendidikan Vokasi, Universitas Halu Oleo.
Penulis menghaturkan terima kasih kepada Bahriddin Abapihi, S.Si., M.Si.
dan Andi Tendri Ampa, S.Si., M.Si. selaku pembimbing yang dengan keikhlasan
dan kesungguhan telah meluangkan waktu, memberikan arahan, dan bimbingan
hingga selesainya penulisan tugas akhir ini, serta kepada Baharuddin, Dr., Irma
Yahya, S.Si., M.Si., dan Dr. Gusti Ngurah Adhi Wibawa, S.Si., M.Si. yang telah
banyak memberikan saran.
Karya ini secara khusus penulis persembahkan untuk Ayah tercinta Drs.
Samir dan Ibu terkasih Dra. Masidah yang telah merawat dan memberikan kasih
sayangnya serta doa yang tulus demi kesuksesan penulis.
Penulis menyadari sepenuhnya bahwa dalam penulisan Tugas Akhir ini tidak
terlepas dari dukungan, motivasi, kerjasama maupun bimbingan dari berbagai pihak.
Oleh karena itu, penulis mengucapkan terimakasih yang sebesar-besarnya.
kepada:
1. Dosen Program Studi D-III Statistika, pembantu Dekan serta seluruh staf
Akademika Universitas Halu Oleo yang telah memberikan pengetahuan dan
pelayanan administrasi sehingga tugas akhir ini dapat terselesaikan.
2. Saudara-saudara maupun sepupu-sepupuku (Muhajir Sam, Rahmatia, Tati,
Nirma Patulak, Ice, Andre) terima kasih atas dukungan, motivasi dan doanya
kepada penulis selama menyelesaikan tugas akhir ini.
3. Sahabat-sahabat ceria seperjuanganku angkatan 2011 Marni, Anhy, Ira, Neni,
Farida, Wulan, Tata (terima kasih atas kebersamaan dan kehangatan yang telah
dicurahkan), Tika, Fitry, Ecynk, Vina, Aysah, Mimi, Shary, Hidarno, Eka,
4. Sofaltin, Nining, Hamni, Yekti, Mushaki, Awaluddin, Khairil, Aswar, Dedi,
Asnah, Zohra yang telah bersama-sama dalam mengarungi rimba pendidikan,
masing-masing dari kalian mempunyai kesan tersendiri bagi penulis, semoga
sukses menanti kita semua, amin.
5. Senior angkatan 2008, 2009 dan 2010, terima kasih atas dukungan dan
bimbingannya selama menduduki bangku perkuliahan.
6. Adik-adik angkatan 2012 (Fadli, Faldi, Didin, Anita, Iin, Ayu, Feti, John,
Jumran, Rahmat, Tahir), 2013 (Pita, Lala, Juharni, Juharni, Riska, Karim, Jaya,
Nando, Asrul, Astrid, Nur), dan 2014 (Ade, Rahmat, Risda, Sinar, dll) serta
seluruh pihak yang ikut membantu terselesaikannya tugas akhir ini, yang tidak
dapat disebutkan satu per satu.
Tugas akhir ini merupakan usaha maksimal dari penulis dan masih banyak
keterbatasan dan kekurangannya. Oleh karena itu, penulis megharapkan saran dan
kritik dari semua pihak demi perbaikan dan penyempurnaannya kelak. Semoga karya
ini dapat bermanfaat bagi semua pihak.

Kendari, 18 Juni 2015

Penulis
DAFTAR ISI

Halaman
DAFTAR TABEL.......................................................................................... i
DAFTAR LAMPIRAN.................................................................................. ii
ABSTRAK ..................................................................................................... iii
ABSTRACT................................................................................................... iv

BAB I PENDAHULUAN
1.1 Latar Belakang ...................................................................................... 1
1.2 Tujuan ................................................................................................... 2
1.3 Manfaat ................................................................................................. 2

BAB II TINJAUAN PUSTAKA


2.1 Multikolinearitas ................................................................................. 3
2.1.1 Pendeteksian Multikolinearitas ................................................. 3
2.1.2 Pengaruh Multikolinearitas ....................................................... 4
2.2 Analisis Komponen Utama ................................................................. 5
2.2.1 Nilai Eigen dan Vektor Eigen ................................................... 6
2.2.2 Menentukan Komponen Utama ............................................... 7
2.2.2.1 Komponen Utama Berdasarkan Matriks Kovarian ....... 7
2.2.2.2 Komponen Utama Berdasarkan Matriks Korelasi......... 7
2.2.3 Kriteria pemilihan Komponen utama ........................................ 8
2.3 Regresi Komponen Utama ................................................................. 11
2.4 Uji Keberatian Model ......................................................................... 11

BAB III METODE PENELITIAN


3.1 Sumber Data ............................................................................................ 9
3.2 Prosedur Penelitian ................................................................................. 9

BAB IV HASIL DAN PEMBAHASAN

4.1 Pendeteksian Multikolinearitas........................................................... 10


4.2 Regresi Komponen Utama.................................................................. 10
BAB V KESIMPULAN
5.1 Kesimpulan ....................................................................................... 15

DAFTAR PUSTAKA .................................................................................... 16

LAMPIRAN ................................................................................................... 17
DAFTAR TABEL

Halaman
Tabel 1 Nilai VIF pada analisis regresi berganda 12
Tabel 2 Komponen utama yang diperoleh dari matriks korelasi 13
Tabel 3 Nilai-nilai komponen utama 13
Tabel 4 Penduga parameter regresi komponen utama 14
Tabel 5 Analisis ragam regresi komponen utama 18

i
DAFTAR LAMPIRAN
Halaman
Lampiran 1 Analisis regresi dengan software SPSS 15 18
Lampiran 2 Korelasi parsial menggunakan software SPSS 15 19
Lampiran 3 Analisis regresi awal sebelum dikomponen utamakan 20
dengan Software Minitab 17
Lampiran 4 Pemilihan komponen utama X1 dan X2 menggunakan 21
software Minitab 17
Lampiran 5 Analisis regresi W1 dan W2 terhadap Y menggunakan 22
software Minitab 17
Lampiran 6 Analisis Signifikansi Koefisien Regresi Parsial 23
Menggunakan Software SPSS 15
Lampiran 7 Data pendapatan nelayan di Kecamatan Rumbia 24
Kabupaten Bombana
Lampiran 8 Nilai koefisien komponen utama 25
Lampiran 9 Nilai skor komponen utama 26

ii
ABSTRAK

NUR KHAIRIYAH SAM. Penggunaan Metode Regresi Komponen Utama untuk


Mengatasi Masalah Multikolinearitas. Dibimbing oleh BAHRIDDIN ABAPIHI,
S.Si., M.Si, dan ANDI TENRI AMPA, S.Si., M.Si. Penelitian ini bertujuan untuk
mengatasi masalah multikolinearitas pada variabel-variabel bebas dengan
menggunakan metode regresi komponen utama. Terdapat multikolinieritas dalam
persamaan regresi terlihat dari besarnya nilai korelasi antar variabel bebas X dan nilai
VIF untuk variabel X1,X2,X3,dan X5 yang lebih dari 10. Hasil komponen utama
menunjukkan ada satu komponen utama yang digunakan dalam pembentukan model
regresi komponen utama berdasarkan kriteria-kriteria pembentukan komponen utama
yaitu dengan menggunakan kriteria nilai eigen dan kriteria persen varians.

Kata kunci : Multikolinearitas, Regresi Komponen Utama.

iii
ABSTRAC

NUR KHAIRIYAH SAM . Use of Principal Component Regression Methods for


Troubleshooting Multicollinearity . Guided by BAHRIDDIN ABAPIHI, S.Si., M.Si ,
and ANDI Tenri AMPA, S.Si., M.Si. This study aims to overcome the problem of
multicollinearity in independent variables using principal component regression
method . There is multicollinearity in the regression equation can be seen from the
magnitude of the correlation between the independent variable X and VIF value for
the variable X1 , X2 , X3 , and X5 are more than 10. Results showed there was a major
component of the main components used in forming the main component regression
model based on criteria the main component is the establishment of a criteria by
using the criteria of eigenvalues and percent variance criteria .

Keywords : Multicollinearity , Principal Component Regression

iv
BAB I
PENDAHULUAN

1.1 Latar Belakang


Analisis regresi merupakan salah satu teknik analisis data dalam statistika yang
digunakan untuk mengkaji hubungan antara beberapa variabel dan memprediksi
suatu variabel. Dalam menerapkan hubungan antara beberapa variabel yang
menggunakan analisis regresi, terlebih dahulu peneliti menentukan satu variabel
yang disebut dengan variabel tidak bebas dan satu atau lebih variabel bebas. Jika
ingin melihat hubungan atau pengaruh satu variabel bebas terhadap variabel tidak
bebas maka model regresi yang digunakan adalah model regresi sederhana.
Kemudian, jika ingin melihat hubungan atau pengaruh dua atau lebih variabel bebas
terhadap variabel tidak bebas maka model regresi yang digunakan adalah model
regresi berganda (multiple regression model). Untuk mendapatkan model regresi
sederhana maupun model regresi berganda, estimasi parameternya dengan
menggunakan metode kuadrat terkecil (Kutner et al., 2004).
Salah satu asumsi yang harus dipenuhi dalam analisis regresi berganda adalah
tidak terjadi multikolinearitas. Multikolinearitas terjadi apabila terdapat korelasi di
antara beberapa atau seluruh variabel bebas pada model regresi berganda
(Soemartini, 2008). Ada beberapa cara untuk mengatasi masalah ini, diantaranya
adalah dengan memperbesar ukuran sampel sehingga kovariansi diantara parameter-
parameternya dapat dikurangi. Jika variabel-variabel ini berkolinear dalam populasi
maka prosedur memperbesar ukuran sampel tidak akan mengurangi
multikolinearitas. Kedua adalah dengan pemilihan model, yaitu dengan
mendefinisikan kembali variabel-variabel yang mengalami masalah multikolinearitas
atau dengan menghapus satu atau lebih variabel bebas. Penghapusan variabel bebas
ini tidak akan memberikan solusi yang memuaskan jika variabel yang dikeluarkan
dari model mempunyai pengaruh yang relatif signifikan terhadap variabel terikat,
karena dapat mengurangi ketepatan prediksi dari model (Somodiningrat, 1994).
Untuk mengatasi masalah ini dapat ditempuh dengan menggunakan regresi
komponen utama. Prinsip dasar regresi komponen utama yaitu mengambil komponen
utama sebagai variabel bebas. Koefisien penduga dari metode ini diperoleh melalui

1
pereduksian dimensi variabel penduga komponen utama, dimana himpunan
komponen utama yang dipilih harus tetap mempertahankan keragaman yang besar
terhadap variabel tak bebasnya (Herwindiati, 1997). Berdasarkan uraian tersebut,
penulis tertarik mengangkat permasalahan ini dengan judul Penggunaan Metode
Regresi Komponen Utama untuk Mengatasi Masalah Multikolinearitas.

1.2 Tujuan Penelitian


Penelitian ini bertujuan mengatasi masalah multikolinearitas pada variabel-
variabel bebas dengan menggunakan metode regresi komponen utama.

1.3 Manfaat Penelitian


Hasil penelitian ini diharapkan dapat menjelaskan pengertian dan konsep dasar
regresi komponen utama dalam mengatasi masalah multikolinearitas.

2
BAB II
TINJAUAN PUSTAKA

2.1 Multikolinearitas
Istilah multikolinieritas pertama kali diperkenalkan oleh Ragnar Frisch pada
tahun 1934, yang menyatakan bahwa multikolinieritas terjadi jika adanya hubungan
linier yang sempurna (perfect) atau pasti (exact) diantara beberapa atau semua
variabel bebas dari model regresi berganda.
Maksud dari adanya hubungan linier antar sesama variable adalah : Misalkan
terdapat k variable bebas. Hubungan linier yang sempurna terjadi jika berlaku
hubungan berikut:
(1)
dimana , merupakan bilangan konstan dan tidak seluruhnya nol
atau paling tidak ada satu yang tidak sama dengan nol, yaitu (
Jika terdapat korelasi sempurna diantara sesama variabel bebas, sehingga
nilai koefisien korelasi diantara sesama variabel ini sama dengan satu, maka
konsekuensinya adalah koefisien-koefisien regresi menjadi tidak dapat ditaksir, nilai
standar eror setiap koefisien regresi menjadi tak hingga.
Pada analisis regresi, multikolinieritas dikatakan ada apabila beberapa kondisi
dipenuhi, seperti Dua variable berkorelasi sempurna (vektor-vektor yang
menggambarkan variabel tersebut kolinear); Dua variabel bebas hampir berkorelasi
sempurna yaitu koefisien korelasinya mendekati 1; Kombinasi linier dari beberapa
variabel bebas berkorelasi sempurna atau mendekati sempurna dengan variable bebas
yang lain; Kombinasi linier dari satu sub-himpunan variabel bebas berkorelasi
sempurna dengan suatu kombinasi linier dari sub-himpunan variabel bebas yang lain
(Silalahi, 2011).

2.1.1 Pendeteksian Multikolinearitas


Ada beberapa cara untuk mengetahui ada tidaknya multikolinieritas, yaitu:
1. Korelasi antarvariabel bebas, jika koefisien korelasi cukup tinggi (0,7 r
maka dapat diduga multikolinieritas sangat kuat dalam model (Widarjono,
2007). Koefisien korelasi dapat dihitung dengan rumus sebagai berikut:

3
dengan (2)

dimana: j= 1,2,..., p dan i= 1, 2, ..., p


(Johnson dan Wichern, 2007).
2. Variance Inflation Faktor (VIF), dapat dihitung dengan menggunakan rumus
sebagai berikut:
(3)

dimana adalah koefisien determinasi ganda bila variabel bebas ke k (Xk)


diregresikan terhadap variabel-variabel bebas X lainnya dalam model. Jika nilai
VIF lebih dari 10 mengindikasikan adanya multikolinieritas.
3. TOL yakni ukuran toleransi untuk mendeteksi multikolinearitas
(4)

dengan adalah koefisien determinasi ganda untuk i= 1, 2, , p.


4. Nilai eigen dan indeks kondisi untuk mendiagnosis multikolinearitas bilangan
kondisi :
ID = (5)

dimana ; adalah nilai eigen. Apabila nilai ID < 10 maka terdapat

multikolinieritas lemah, 10 ID 30 terdapat multikolinieritas kuat dan ID > 30


terdapat multikolineritas sangat kuat (Gujarati, 1978).

2.1.2 Pengaruh Multikolinearitas


Koefisien regresi penduga yang diperoleh dengan metode kuadrat terkecil
mempunyai banyak kelemahan apabila terjadi multikolinieritas diantara variabel
bebas, yaitu :
a. Variansi besar, dimana determinan dari matrix 0. Variansi akan
semakin besar sehingga penduga kuadrat terkecil tidak efisien karena memiliki
ragaam pergam yang besar.
b. Selang kepercayaan penduga lebih lebar.
c. Nilai statistik-t yang tidak nyata, sehingga meningkatkan besarnya peluang
menerima hipotesis yang salah (kesalahan akan meningkat).

4
d. Nilai koefisien determinasi (r2) yang tinggi tetapi beberapa nilai statistik-t tidak
nyata. dalam kasus multikolinearitas, koefisien determinasi (r2) mungkin tinggi
sekali serta berdasarkan uji koefisien regresi keseluruhan berdasarkan uji F akan
ditolak hipotesis nol, bahwa 1= 2= = k= 0 (Rahardiantoro, 2008).

2.2 Analisis Komponen Utama


Analisis komponen utama merupakan teknik statistik yang dapat digunakan
untuk mereduksi sejumlah variabel asal menjadi beberapa variabel baru yang bersifat
orthogonal dan tetap mempertahankan total keragaman dari variabel asalnya.
Analisis komponen utama bertujuan untuk mengubah dari sebagian besar
variabel asli yang digunakan yang saling berkorelasi satu dengan yang lainnya,
menjadi satu set variabel baru yang lebih kecil dan saling bebas (tidak berkorelasi
lagi), dan merupakan kombinasi linier dari variabel asal. Selanjutnya variabel baru
ini dinamakan komponen utama (principal component). secara umum tujuan dari
analisis komponen utama adalah mereduksi dimensi data sehingga lebih mudah
untuk menginterpretasikan data-data tersebut.
Analisis komponen utama bertujuan untuk menyederhanakan variabel yang
diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan
menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel baru
yang tidak berkorelasi.
Variabel baru ( ) disebut sebagai komponen utama yang merupakan hasil
transformasi dari variable asal ( yang modelnya dalam bentuk catatan matriks
adalah:
(6)
dimana A adalah matriks yang melakukan transformasi terhadap variabel asal
sehingga diperoleh vektor komponen .

Penjabarannya adalah sebagai berikut:

5
Komponen utama Wj saling ortogonal sesamanya dan dibentuk melalui suatu
hubungan:
Wj= 1j Z1 + 2j Z2 + 3j Z3 + ... + pj Zp (7)
Komponen utama dimulai dengan data pada variabel ke p dari banyaknya n
data. maka kombinasi linear dari variabelvariabel X1, X2, . , Xp, diperoleh
komponen utama yaitu:
PC1 =
PC2 = 21X1 + 22 X2 + + 2p Xp (8)
PCn = n1X1 + n2X2 + +npXp
(Sunarsih et al., 2008)

2.2.1 Nilai Eigen dan Vektor Eigen


Jika A adalah matriks n n, maka vektor tak nol X di dalam Rn
dinamakan vektor eigen dari A jika AX adalah kelipatan skalar dari X, yakni:
(9)
dimana, untuk suatu skalar . Skalar dinamakan nilai eigen dari A dan X
dinamakan vektor eigen yang bersesuaian dengan .
Untuk mencari nilai eigen matriks A yang berukuran n n :

, ,

X (10)
Jika nilai eigen disubstitusi pada persamaan (I A)X = 0 , maka solusi
dari vektor eigen adalah ( ) .
Jika A adalah matriks n n. Nilai eigen dari matriks A yaitu , , ...,
adalah suatu solusi dari persamaan . Bersesuaian dengan nilai
eigen, didefinisikan vektor eigen yang merupakan solusi dari ( ) .

6
2.2.2 Menentukan Komponen Utama
Komponen utama dapat ditentukan melalui matriks ragam peragam () dan
matriks korelasi. Matriks kovarian digunakan untuk membentuk komponen utama
apabila semua variabel yang diamati mempunyai satuan pengukuran yang sama.
Sedangkan, matriks Korelasi digunakan apabila variabel yang diamati tidak
mempunyai satuan pengukuran yang sama. Variabel tersebut perlu dibakukan,
sehingga komponen utama berdasarkan matriks korelasi ditentukan dari variabel
baku.

2.2.2.1 Komponen Utama Berdasarkan Matriks Kovarian


Misalkan matriks P adalah matriks ortogonal dengan memenuhi PP= PP= 1.
Karena W= XcP, maka proses persamaan regresi linier berganda menjadi regresi
komponen utama, yaitu:
Y= Xc +
Y= Xc PP +
Y= W + (11)
Model regresi tersebut kemudian direkduksi menjadi k komponen utama
seperti persamaan berikut:
Y= 0i +Wk k + (12)
Dimana Xc=matriks yang elemen- elemennya dikurang dengan rataannya yang
2
mensyaratkan rataan nol dan variansi ; Y =variabel tak bebas; 0=intersep; i
=vektor yang elemen- elemennya adalah satu berukuran n 1; Wk=suatu matrik
berukuran n k yang elemennya terdapat komponen utama; k = vektor koefisien
komponen utama berukuran k 1; = vektor galat berukuran n 1.

2.2.2.2 Komponen Utama Berdasarkan Matriks Korelasi


Persamaan regresi komponen utama berdasarkan matriks korelasi yaitu
variabel X1,X2,..., Xp diganti dengan variabel baku Zp, Zp,..., Zp. Umumnya proses
untuk memperoleh persamaan regresi komponen utama berdasarkan matriks korelasi
mempunyai proses penurunan persamaan regresi komponen utama yang sama
dengan matriks kovarian, maka model regresi komponen utama berdasarkan matriks
korelasi adalah sebagai berikut:
Y= 0i +Wk k + (13)

7
dimana Xc=matriks yang elemen- elemennya dikurang dengan rataannya yang
2
mensyaratkan rataan nol dan variansi ;Y =variabel tak bebas; 0=intersep;i =vektor
yang elemen- elemennya adalah 1 berukuran n 1; Wk=suatu matrik berukuran n
k yang elemennya terdapat komponen utama; k= vektor koefisien komponen utama
berukuran k 1; = vektor galat berukuran n 1 (Marcus et al., 2012).
Untuk mengukur keeratan hubungan (korelasi) antara variabel asal dan
komponen utama dapat dilihat melalui besarnya koefisien korelasi antara variabel
asal dan komponen utama menggunakan persamaan , dimana

adalah unsur ke-i dari eigen ke-j dan adalah yang bersesuain dengan akar ciri.
Untuk meregresikan komponen utama dengan variabel tak bebas, maka perlu
dihitung skor komponen dari setiap pengamatan. Untuk komponen utama yang
diturunkan dari matriks korelasi , maka skor komponen utama dari unit pengamatan
ke-i (i = 1,2,,k) ditentukan oleh , dengan
adalah vektor pembobot komponen utama ke-i dan adalah vektor skor baku
dari variabel yang diamati pada pengamatan ke-k.

2.2.3 Kriteria Pemilihan Komponen Utama


Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi
data asal yang semula, terdapat p variable bebas menjadi k komponen utama (dimana
k < p). Kriteria pemilihan k yaitu didasarkan pada akar ciri yang lebih besar dari satu,
dengan kata lain hanya komponen utama yang memiliki akar ciri lebih besar dari satu
yang dilibatkan dalam analisis regresi komponen utama dan proporsi kumulatif
keragaman data asal yang dijelaskan oleh k komponen utama minimal 80%, dan
proporsi total variansi populasi bernilai cukup besar (Johnson, 2002).

2.3 Regresi Komponen Utama


Regresi komponen utama adalah teknik yang digunakan untuk meregresikan
komponen utama dengan variabel tak bebas melalui metode kuadrat terkecil. Tahap
pertama pada prosedur regresi komponen utama yaitu menentukan komponen utama
yang merupakan kombinasi dari beberapa variabel X, dan tahap kedua adalah
variabel tak bebas diregresikan pada komponen utama dalam sebuah model regresi
linier.

8
Persamaan regresi komponen utama berdasarkan matriks kovarian pada
dasarnya hampir sama dengan persamaan regresi komponen utama berdasarkan
matriks korelasi yaitu variabel X1, X2, ..., Xp diganti dengan variabel baku Z1, Z2, ...,
Zp. Kedua persamaan tersebut digunakan sesuai dengan pengukuran variabel-variabel
yang diamati.
Apabila diberikan notasi W1, W2, ..., Wp sebagai banyaknya komponen utama
yang dilibatkan dalam analisis regresi komponen utama, di mana k lebih kecil
daripada banyaknya variabel penjelas asli X, yaitu sejumlah p (k > p) maka bentuk
persamaan dari model regresi komponen utama yaitu:
Y = 0+ 1W1 + 2W2 + + kWk + (14)
Jika dilakukan transformasi persamaan regresi komponen utama dengan variabel
bebas Wj ke variabel Zp
Yi = 0 + 1Z1 + 2Z2 + ...+ kZk + (15)
Proses transformasi persamaan regresi dengan variabel bebas Zji ke variabel bebas
Xji.
Yi = 0 + 1X1 + 2X2 + ... + kXk (16)
(Uliani, 2013).

2.4 Uji Keberartian Model


Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah
sebagai berikut:
H0 : 1= 2= = k= 0 (tidak ada hubungan linear antara variabel-variabel bebas
dengan variabel terikat)
H1 : k 0 untuk j = 1, 2,, p (ada hubungan linear antara variabel-varriabel bebas
dengan variabel terikat);
dengan Taraf signifikansi adalah 0,05. Statistik uji yang digunakan untuk menguji
parameter regresi secara parsial adalah:

Fhitung = (17)

dengan k adalah banyaknya variabel dalam model; n adalah banyaknya data; .


Jika Fhitung Ftabel, maka H0 ditolak yang artinya variabel bebas ke k
berpengaruh nyata terhadap Y (Gujarati, 1978).

9
BAB III
METODE PENELITIAN

3.1 Sumber Data


Data yang digunakan dalam penelitian ini adalah data sekunder, mengenai
faktor-faktor yang mempengaruhi pendapatan nelayan di Kecamatan Rumbia
Kabupaten Bombana (Buromu, 2008). Variabel yang dilibatkan pada penelitian ini
adalah:
X1: Jenis alat tangkap (unit);
X2: Jumlah armada penangkapan (unit);
X3: Jumlah tenaga kerja (hari kerja);
X4: Pengalaman kerja (tahun);
X5: Biaya yang dikeluarkan dalam proses penangkapan (rupiah);
Y : Pendapatan bersih nelayan (rupiah).

3.2 Prosedur Penelitian


Penelitian ini diolah dengan menggunakan software Minitab 17 dan SPSS 15.
Adapun prosedur penelitian yang dilakukan adalah sebagai berikut:
a. Pendektesian multikolinearitas pada data yang akan diolah dengan menggunakan
persamaan 2;
b. Melakukan analisis komponen utama yaitu mencari nilai eigen dan vektor eigen,
menghitung skor komponen utama, menentukan jumlah komponen utama yang
akan digunakan;
c. Meregresikan skor komponen yang diperoleh dengan variabel tak bebas;
d. Menguji signifikansi model regresi komponen utama;
e. Mentransformasi model regresi komponen utama menjadi model regresi variabel
bebas;
f. Menentukan faktor-faktor yang signifikan terhadap pendapatan nelayan.

10
BAB IV
HASIL DAN PEMBAHASAN

4.1 Pendeteksian Multikolinearitas


Multikolinearitas adalah suatu kondisi dimana terjadi korelasi yang tinggi
antara variabel bebas. Salah satu metode yang dapat digunakan untuk mendeteksi
masalah multikolinieritas adalah melihat nilai variance inflation factors (VIF).
Pendeteksian multikolinearitas dalam penelitian ini dilakukan berdasarkan pada
persamaan 2. Jika nilai VIF yang diperoleh lebih besar dari 10 mengindikasikan
adanya multikolinieritas. Berdasarkan Lampiran 1 diketahui bahwa nilai VIF pada
variabel-variabel lebih besar dari 10 (Tabel 1).

Tabel 1. Nilai VIF pada analisis regresi berganda


Variabel bebas Nilai VIF
X1 85,349
X2 107,028
X3 22,816
X4 1,141
X5 75,693

Tabel 1 menunjukkan telah terjadi multikolinearitas pada sebagian besar


variabel bebas yang ditandai dengan nilai VIF > 10 untuk variabel bebas X1, X2, X3,
dan X5.

4.2 Regresi Komponen Utama (RKU)


Salah satu metode yang digunakan untuk mengatasi masalah multikolinearitas
adalah regresi komponen utama. Regresi komponen utama merupakan salah satu
analisis yang menggunakan komponen utama untuk mengatasi adanya
multikolinearitas. Koefisien penduga dari metode ini diperoleh melalui pereduksian
dimensi variabel penduga komponen utama, dimana himpunan komponen utama
yang dipilih harus tetap mempertahankan keragaman yang besar terhadap variabel
tak bebasnya. Selanjutnya pada kasus pendapatan bersih nelayan yang mengindikasi
adanya multikolinearitas akan diselesaikan dengan regresi komponen utama.

11
Tabel 2. Komponen utama yang diperoleh dari matriks korelasi
Komponen utama
Variabel
I II III IV V
W1 0,502 -0,137 -0,298 0,778 0,185
W2 0,511 -0,102 0,079 -0,483 0,699
W3 0,458 0,029 0,809 0,102 -0,352
W4 0,194 0,971 -0,139 -0,009 0,010
W5 0,489 -0,164 -0,481 -0,387 -0,595

Nilai akar ciri 3,765 0,904 0,315 0,007 0,006


Proporsi
total 0,753 0,181 0,063 0,002 0,001
varians
Proporsi
kumulatif 0,753 0,934 0,997 0,999 1
varians

Berdasarkan tabel 2, terdapat satu faktor yang memiliki nilai akar ciri lebih
besar dari satu yaitu sebesar 3,765. Namun, Ada tiga komponen utama yang
mewakili kriteria 99% dari proporsi kumulatif varians yaitu 99,7% yaitu W1, W2, W3..
Adapun model yang terbentuk adalah :
Y = 461875 + 193802 W1 73994 W2 271953 W3

Tabel 3. Nilai-nilai komponen utama


Variabel PC1 PC2 PC3
X1 0,502 -0,137 -0,298
X2 0,511 -0,102 0,079
X3 0,458 0,029 0,809
X4 0,194 0,971 -0,139
X5 0,489 -0,163 -0,480

Tabel 3 menunjukkan nilai-nilai PC1 digunakan untuk transformasi ulang


dengan memasukan persamaan W1 = PC1. Berikut persamaannya:
W1= 0,502 X1 + 0,511 X2 + 0,458 X3 + 0,193 X4 + 0,488 X5
W2=-0,137 X1 0,102 X2 + 0,029 X3 + 0,971 X4 0,163 X5
W3=-0,298 X1 + 0,079 X2 + 0,809 X3 0,139 X4 0,480 X5
Y = 461875 + 193802 W1 73994 W2 271953 W3

12
Y =461875+ 193802 (0,502 X1+ 0,511 X2+ 0,4581 X3+ 0,193 X4+ 0,488 X5) 73994
(-0,137 X1 0,102 X2 + 0,029 X3 + 0,971 X4 0,163 X5) 271953 (-0,298 X1 +
0,079 X2 + 0,809 X3 0,139 X4 0,480 X5)
Matriks Wj berisi skor komponen utama yang diperoleh dari persamaan W1.
Selanjutnya Y diregresikan terhadap skor komponen utama W1. Hasilnya dapat dilihat
pada Tabel 4 dan Tabel 5 berikut:

Tabel 4. Penduga parameter regresi komponen utama


Variabel Koefisien Pendugaan t hitung P Value VIF
Kontanta 461875 9299 49,67 0,000
W1 193802 4853 39,94 0,000 1,000
W2 -73994 9903 -7,47 0,000 1,000
W3 -271953 16755 -16,23 0,000 1,000
S = 58809,9 R2 = 98,2% R2adj = 98,0%

Tabel 5. Analisis ragam regresi komponen utama


Sumber Derajat Jumlah Kuadrat Fhitung P Value
Keragaman Bebas Kuadrat Tengah
Model Regresi 3 6,62047E+12 2,20682E+12 638,07 0,000
Galat 36 1,24510E+11 3458608865
Total 39 6,74498E+12

Langkah selanjutnya setelah model diperoleh maka akan dilakukan uji


keberartian dari model tersebut, dengan menggunakan uji regresi secara simultan.
Hipotesis:
H0: j = 2 = = k = 0
H1: j 0
Kriteria Uji:
Jika Fhitung Ftabel, maka H0 ditolak yang artinya variabel bebas ke k berpengaruh
nyata terhadap Y.

Tabel 4 dan tabel 5 menunjukkan bahwa nilai R2 yang dihasilkan oleh


koefisien penduga model regresi komponen utama terlihat tinggi yaitu sebesar
98,2%, kemudian nilai Fhitung= 638,07 dan F0,05= 4,09. Berdasarkan pengujian
disimpulkan bahwa H0 ditolak karena nilai Fhitung > Ftabel, sehingga pengujian nilai

13
statistik uji F untuk regresi adalah nyata pada taraf nyata 0.05 dengan nilai VIF
sebesar 1.
Transformasi model regresi komponen utama W menjadi model regresi untuk
variabel X adalah sebagai berikut:
Y = 461875+ 188632,9 X1+ 85260,45 X2 - 133258 X3+ 3517,418 X4+ 237531,3 X5

Model regresi variabel bebas X tersebut mempunyai arti sebagai berikut:


1. Rata-rata pendapatan bersih nelayan (Y) akan bernilai Rp.461.875 apabila semua
variabel bernilai nol.
2. Pendapatan bersih nelayan akan bertambah sebanyak Rp.188.633 untuk setiap
pertambahan satu satuan jenis alat tangkap (X1) apabila nilai variabel bebas
lainya bernilai tetap.
3. Pendapatan bersih nelayan akan bertambah sebanyak Rp.85.260 untuk setiap
pertambahan satu satuan jumlah armada penangkapan (X2) apabila nilai variabel
bebas lainya bernilai tetap.
4. Pendapatan bersih nelayan akan berkurang sebanyak Rp.133.258 untuk setiap
pertambahan satu satuan jumlah tenaga kerja (X3) apabila nilai variabel bebas
lainya bernilai tetap.
5. Pendapatan bersih nelayan akan bertambah sebanyak Rp.3.517 untuk setiap
pertambahan satu satuan pengalaman kerja (X4) apabila nilai variabel bebas
lainya bernilai tetap.
6. Pendapatan bersih nelayan akan bertambah sebanyak Rp.237.531 untuk setiap
pertambahan satu satuan biaya yang dikeluarkan dalam proses penangkapan (X5)
apabila nilai variabel bebas lainya bernilai tetap.

14
BAB V
KESIMPULAN

Berdasarkan hasil penelitian dapat disimpulkan bahwa terdapat masalah


multikolinieritas dalam persamaan regresi. Hal itu terlihat dari besarnya nilai korelasi
antar variabel bebas X dan nilai VIF untuk variabel X1, X2, X3, dan X5 yang lebih dari
10.
Penerapan Metode regresi komponen utama pada penelitian ini adalah data
yang mengalami masalah multikolinearitas, yaitu pendapatan bersih nelayan (rupiah)
sebagai variabel Y, jumlah alat tangkap (unit) sebagai variabel X1, jumlah armada
penangkapan (unit) sebagai variabel X2, jumlah tenaga kerja (hari kerja) sebagai
variabel X3, pengalaman kerja (tahun) sebagai X4, dan biaya yang dikeluarkan dalam
proses penangkapan (rupiah) sebagai X5. Ada tiga komponen utama yang mewakili
kriteria 99% dari proporsi kumulatif varians yaitu 99,7%. Model taksiran regresi
komponen utama yang telah ditransformasi menjadi model regresi variabel bebas X
terhadap variabel tak bebas Y adalah:
Y= 461875+ 188632,9 X1+ 85260,45 X2 - 133258 X3+ 3517,418 X4+ 237531,3 X5

15
DAFTAR PUSTAKA

Buromu, R. 2008. Analisis Faktor- Faktor Yang Mempengaruhi Pendapatan


Nelayan di Kecamatan Rumbia Kabupaten Bombana [Skripsi]. Kendari:
Universitas Haluoleo.

Gujarati, D. 1978. Ekonometrika Dasar. Jakarta: Erlangga

Herwidianti, D. E. 1997. Pengkajian Regresi Komponen Utama, Regresi Ridge, dan


Regresi Kuadrat Terkecil (Parsial Least Square) untuk mengatasi
kolinearitas [Tesis]. Bogor. Institut Teknologi Bogor

Johnson, R. A., Wichern, D. W. 2007. Applied Multivariate Statistical Analysis.


Sixth edition. Prentice Hall. New Jersey

Kutner, M. H., Nachtsheim, C. J., Neter, J., Li, W. 2005. Applied Linear Statistical
Models. Fifth Edition.New York: McGraw-Hill

Marcus G.L., Wattimanela H. J., Lesnussa Y. A. 2012. Analisis Regresi Komponen


Utama untuk Mengatasi Masalah Multikolinieritas dalam Analisis Regresi
Linier Berganda. Ambon: FMIPA Universitas Pattimura.

Montgomery, D. C., Peck, E. A. 1991. Introduction Linear Regression Analysis.


Second Edition. New York: John Wiley & Sons

Myers, R.H. & Milton, J.S. 1991. A First Course In The Theory Of Linier Statistical
Models. PWS-KENT Publishing Company, Boston.

Soemartini. 2008. Penyelesaian Multikolinearitas Melalui Metode Ridge Regression.


[Tesis]. Padjajaran: Universitas Padjajaran.

Sunarsih, H. A. 2008. Penggunaan Analisis Komponen Utama dalam Penggabungan


Data Peubah Ganda pada Kasus Produksi Pertanian dan Perkebunan Di
Wilayah Bolaang Mongondow Tahun 2008. Manado: Fmipa Universitas Sam
Ratulangi.

Uliani. 2013. Perbandingan Regresi Komponen Utama dan Regresi Ridge untuk
Menangani Masalah Multikolinearitas pada Regresi linear Berganda.
Kendari: Mipa Universitas Halu Oleo.

Ul-Sulfie, A., Yahya, A. S., Ramli, N. A. 2011. Improving Multiple Linear


Regression Model Using Principal Component Analysis for Predicting PM10
Concentration in Seberang Prai, Pulau Pinang. International Journal of
Environmental Sciences Vol. 2 No. 2.

16
LAMPIRAN

17
Lampiran 1. Analisis regresi dengan software SPSS 15

ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regression 6.625 5 1.325 374.593 .000a
Residual .120 34 .004
Total 6.745 39
a. Predictors: (Const ant), X5, X4, X3, X1, X2
b. Dependent Variable: Y

Coeffici entsa

Unstandardized Standardized
Coef f icients Coef f icients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) .032 .026 1.243 .222
X1 .013 .004 .634 2.997 .005 .012 85.349
X2 -.001 .013 -.012 -.051 .960 .009 107.028
X3 -.085 .037 -.249 -2.273 .029 .044 22.816
X4 .000 .001 .005 .191 .850 .876 1.141
X5 .001 .000 .546 2.740 .010 .013 75.693
a. Dependent Variable: Y

a
Colli nearity Di agnostics

Condition Variance Proportions


Model Dimension Eigenv alue Index (Constant) X1 X2 X3 X4 X5
1 1 5.162 1.000 .00 .00 .00 .00 .00 .00
2 .577 2.991 .09 .00 .00 .00 .09 .00
3 .170 5.507 .02 .00 .00 .08 .02 .01
4 .084 7.824 .72 .00 .00 .01 .86 .00
5 .003 38.960 .01 .99 .15 .01 .01 .41
6 .003 42.535 .16 .01 .85 .90 .02 .58
a. Dependent Variable: Y

18
Lampiran 2. Korelasi parsial menggunakan software SPSS 15
Correlati ons

Control Variables X1 X2 X3 X4 X5
Y X1 Correlation 1,000 ,914 ,884 ,214 ,782
Signif icance (2-t ailed) . ,000 ,000 ,191 ,000
df 0 37 37 37 37
X2 Correlation ,914 1,000 ,961 ,205 ,761
Signif icance (2-t ailed) ,000 . ,000 ,210 ,000
df 37 0 37 37 37
X3 Correlation ,884 ,961 1,000 ,251 ,669
Signif icance (2-t ailed) ,000 ,000 . ,123 ,000
df 37 37 0 37 37
X4 Correlation ,214 ,205 ,251 1,000 ,139
Signif icance (2-t ailed) ,191 ,210 ,123 . ,400
df 37 37 37 0 37
X5 Correlation ,782 ,761 ,669 ,139 1,000
Signif icance (2-t ailed) ,000 ,000 ,000 ,400 .
df 37 37 37 37 0

19
Lampiran 3. Analisis regresi awal sebelum dikomponen utamakan dengan Software
Minitab 17
Regression Analysis: Y versus X1; X2; X3; X4; X5

Analysis of Variance

Source DF Adj SS Adj MS F-Value P-Value


Regression 5 6,62473E+12 1,32495E+12 374,59 0,000
X1 1 31761646758 31761646758 8,98 0,005
X2 1 9145367 9145367 0,00 0,960
X3 1 18266862866 18266862866 5,16 0,029
X4 1 128852554 128852554 0,04 0,850
X5 1 26558844774 26558844774 7,51 0,010
Error 34 1,20259E+11 3537029880
Lack-of-Fit 31 1,17342E+11 3785237073 3,89 0,144
Pure Error 3 2916666667 972222222
Total 39 6,74498E+12

Model Summary

S R-sq R-sq(adj) R-sq(pred)


59472,9 98,22% 97,95% 97,31%

Coefficients

Term Coef SE Coef T-Value P-Value VIF


Constant 32092 25819 1,24 0,222
X1 13078 4364 3,00 0,005 85,35
X2 -658 12949 -0,05 0,960 107,03
X3 -84507 37186 -2,27 0,029 22,82
X4 204 1069 0,19 0,850 1,14
X5 0,900 0,329 2,74 0,010 75,69

Regression Equation

Y = 32092 + 13078 X1 - 658 X2 - 84507 X3 + 204 X4 + 0,900 X5

Fits and Diagnostics for Unusual Observations

Obs Y Fit Resid Std Resid


1 300000 458751 -158751 -2,81 R
8 750000 885439 -135439 -2,43 R
13 1000000 885848 114152 2,03 R
15 600000 467051 132949 2,42 R
17 800000 894282 -94282 -2,19 R X
18 1000000 1030979 -30979 -0,86 X

R Large residual
X Unusual X

20
Lampiran 4. Pemilihan komponen utama X1 dan X2 menggunakan software
Minitab 17
Principal Component Analysis: X1; X2; X3; X4; X5

Eigenanalysis of the Correlation Matrix

Eigenvalue 3,7658 0,9043 0,3159 0,0076 0,0064


Proportion 0,753 0,181 0,063 0,002 0,001
Cumulative 0,753 0,934 0,997 0,999 1,000

Variable PC1 PC2 PC3 PC4 PC5


X1 0,502 -0,137 -0,298 0,778 0,185
X2 0,511 -0,102 0,079 -0,483 0,699
X3 0,458 0,029 0,809 0,102 -0,352
X4 0,194 0,971 -0,139 -0,009 0,010
X5 0,489 -0,164 -0,481 -0,387 -0,595

21
Lampiran 5. Analisis regresi W1 dan W2 terhadap Y menggunakan software Minitab
17
Regression Analysis: Y versus W1; W2; W3

The regression equation is


Y = 461875 + 193802 W1 - 73994 W2 - 271953 W3

Predictor Coef SE Coef T P VIF


Constant 461875 9299 49,67 0,000
W1 193802 4853 39,94 0,000 1,000
W2 -73994 9903 -7,47 0,000 1,000
W3 -271953 16755 -16,23 0,000 1,000

S = 58809,9 R-Sq = 98,2% R-Sq(adj) = 98,0%

Analysis of Variance

Source DF SS MS F P
Regression 3 6,62047E+12 2,20682E+12 638,07 0,000
Residual Error 36 1,24510E+11 3458608865
Total 39 6,74498E+12

Source DF Seq SS
W1 1 5,51616E+12
W2 1 1,93090E+11
W3 1 9,11224E+11

Unusual Observations

Obs W1 Y Fit SE Fit Residual St Resid


1 -0,68 300000 453232 17616 -153232 -2,73R
8 1,06 750000 882840 20282 -132840 -2,41R
13 1,10 1000000 883575 18911 116425 2,09R
15 1,50 600000 465143 21591 134857 2,47R
17 4,64 800000 892695 36821 -92695 -2,02RX
18 5,09 1000000 1036932 35057 -36932 -0,78 X

R denotes an observation with a large standardized residual.


X denotes an observation whose X value gives it large leverage.

Durbin-Watson statistic = 1,82231

22
Lampiran 6. Analisis Signifikansi Koefisien Regresi Parsial Menggunakan Software
SPSS 15

Coeffici entsa

Unstandardized Standardized
Coef f icients Coef f icients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 461875.4 9403.482 49.117 .000
W1 193801.9 4907.475 .904 39.491 .000 1.000 1.000
W2 -73993.86 10014.650 -.169 -7.389 .000 1.000 1.000
W3 -271953.2 16943.389 -.368 -16.051 .000 1.000 1.000
W4 109182.5 109184.6 .023 1.000 .324 1.000 1.000
W5 -53454.12 118962.4 -.010 -.449 .656 1.000 1.000
a. Dependent Variable: y

23
Lampiran 7. Data pendapatan nelayan di Kecamatan Rumbia Kababupaten Bombana
No. X1 X2 X3 X4 X5 Y
1 20 7 0,67 6 250000 300000
2 20 7 1,00 15 270000 500000
3 20 7 0,67 10 261500 500000
4 60 21 2,00 30 780000 1300000
5 60 21 2,00 25 800000 1400000
6 40 14 1,33 20 540000 1000000
7 40 14 1,33 21 500000 900000
8 40 14 1,33 8 500000 750000
9 60 21 2,00 35 700000 1300000
10 20 7 1,00 20 250000 450000
11 40 14 1,33 20 540000 950000
12 60 21 2,00 26 760000 1300000
13 40 14 1,33 10 500000 1000000
14 30 14 2,67 25 300000 500000
15 30 14 2,67 36 300000 600000
16 30 14 2,67 10 300000 500000
17 60 28 5,33 30 600000 800000
18 60 28 5,33 38 750000 1000000
19 10 4 0,33 30 150000 200000
20 12 4 0,33 16 150000 300000
21 14 4 0,67 10 100000 250000
22 12 4 0,33 15 150000 250000
23 10 4 0,33 30 150000 250000
24 10 4 0,33 30 150000 250000
25 14 4 0,67 15 180000 300000
26 5 4 0,50 18 65000 100000
27 10 4 0,67 10 62000 180000
28 5 4 0,50 25 60000 100000
29 5 4 0,50 20 60000 100000
30 10 4 0,67 21 75000 185000
31 3 4 0,33 6 60000 100000
32 6 4 0,67 10 75000 200000
33 3 4 0,33 8 60000 100000
34 3 4 0,33 12 60000 100000
35 6 4 0,67 17 75000 160000
36 2 1 0,16 30 10000 60000
37 2 1 0,16 37 10000 50000
38 2 1 0,16 28 10000 50000
39 4 1 0,16 23 10000 70000
40 4 1 0,16 35 10000 70000

24
Lampiran 8. Nilai koefisien komponen utama
PC1 PC2 PC3 PC4 PC5
0,502294 -0,137221 -0,297904 0,778491 0,184595
0,511079 -0,102413 0,079102 -0,483268 0,698931
0,458461 0,029091 0,809164 0,102375 -0,351769
0,193619 0,971071 -0,139090 -0,009353 0,009983
0,488696 -0,163882 -0,480525 -0,387086 -0,594625

25
Lampiran 9. Nilai skor komponen utama
No. W1 W2 W3 W4 W5
1 -0,741 1,433 -0,171 -0,168 -0,047
2 -0,396 0,531 -0,098 0,009 -0,112
3 -0,640 1,041 -0,051 -0,142 -0,041
4 3,130 -0,180 0,886 -0,369 0,042
5 3,062 0,340 0,822 -0,334 0,035
6 1,275 0,448 0,468 -0,220 0,002
7 1,228 0,310 0,391 -0,297 0,002
8 0,964 1,618 0,095 -0,308 -0,016
9 3,097 -0,760 0,800 -0,521 0,048
10 -0,328 0,009 -0,034 -0,026 -0,105
11 1,276 0,448 0,469 -0,220 0,002
12 3,015 0,203 0,745 -0,411 0,036
13 1,004 1,417 0,141 -0,306 -0,013
14 1,111 -0,430 -0,846 0,325 0,096
15 1,462 -1,500 -0,565 0,175 -0,024
16 0,932 1,111 -1,158 0,153 -0,061
17 4,594 -0,430 -1,559 0,347 -0,023
18 5,011 -1,100 -1,002 0,646 -0,008
19 -1,011 -1,150 0,322 -0,051 0,027
20 -1,245 0,274 0,015 -0,126 -0,047
21 -1,270 0,827 -0,422 -0,158 -0,191
22 -1,266 0,375 -0,008 -0,127 -0,049
23 -1,011 -1,150 0,322 -0,050 0,027
24 -1,011 -1,150 0,322 -0,050 0,027
25 -1,033 0,398 -0,108 0,002 -0,183
26 -1,460 -0,050 -0,287 0,000 0,104
27 -1,436 0,768 -0,541 -0,104 -0,083
28 -1,325 -0,760 -0,140 -0,003 0,114
29 -1,427 -0,260 -0,254 -0,007 0,106
30 -0,049 0,299 1,430 1,247 -0,054
31 -1,829 1,144 -0,491 -0,022 0,181
32 -0,374 1,382 1,156 1,366 0,039
33 -1,788 0,943 -0,446 -0,021 0,184
34 -1,707 0,541 -0,355 -0,017 0,189
35 -1,372 0,053 -0,373 0,054 0,035
36 -1,721 -1,340 0,086 -0,028 -0,028
37 -1,578 -2,050 0,240 -0,022 -0,018
38 -1,762 -1,140 0,040 -0,029 -0,031
39 -1,813 -0,630 -0,061 -0,097 -0,092
40 -1,569 -1,830 0,212 -0,087 -0,075

26