Dosen Pengampu
Wiwit Pura Nurmayanti M.Si
Nama Mahasiswa
Indri Astuti
(NPM : 200304011)
Analisis Regresi merupakan suatu alat statistic yang sering kali digunakan sebagai peramalan
suatu data yang akan dating. Analisis regresi digunakan untuk membangun suatu model
matematis yang dapat digunakan untuk meramalkan atau menduga nilai variabel Y ( variabel
terikat/dependen) berdasarkan nilai-nilai variabel X (variabel
independent/bebas/prediktor).Model regresi paling sederhana adalah regresi linear sederhana
dimana dalam model regresi tersebut hanya terdapat satu variabel bebas saja. Sedangkan jika
variabel bebas yang digunakan dalam model regresi lebih dari satu maka disebut regresi linear
berganda.
Analisis regresi linear berganda lebih kompleks dari pada analisis regresi linear sedrehana
karena lebih banyak melibatkan variabel yang dapat menimbulkan permasalahan statistic yang
berbeda .Salah satu permasalahan yang sering muncul dalam analisis regresi linear berganda
adalah terjadinya multikolinearitas .
Dampak dari multikolinearitas ini dapat mengakibatkan koefisien regresi yang dihasilkan
oleh suatu analisis regresi linear menjadi sangat lemah sehingga tidak dapat memberikan hasil
analisis yang mewakili sifat atau pengaruh dari variabel bebas yang bersangkutan (Montgomery
dan Hines,1990). Dalam banyak hal masalah multikolinearitas dapat menyebabkan uji T menjadi
tidak signifikan. Padahal masing-masing variabel bebas diregresikan secara terpisah dengan
variabel tak bebas (simple regression),uji menunjukan hasil yang signifikan .
Ada beberapa prosedur yang dapat digunakan untuk mengatasi masalah
multikolinearitas.Akan tetapi pada prakteknya,prosedur tersebut sangat tergantung pada kondisi
penelitian . oleh karena itu,perlu adanya solusi yang memberikan efek penanggulangan yang
besar pada masalah multikolinearitas dalam analisis regresi linear.
2. TINJAUAN PUSTAKA
2.1 Definisi
Penyimpanan asumsi model klasik yang pertama adalah multikolinearitas dalam
model regresi yang dihasilkan .Artinya ,antar variabel independent yang terdapat dalam
model memiliki hubungan yang sempurna atau mendekati sempurna (koefisien
korelasinya tinggi atau 1).
Konsekuensinya yang sangat penting bagi model regresi yang mengandung
multikolinearitas adalah bahwa kesalahan standar estimasi yang cendrung meningkat
dengan bertambahnya variabel independent,tingkat signifikan yang digunakan untuk
menolak hipotesis nol akan semakin besar,dan probabilitas menerima hipotesis yang
salah (kesalahan ꞵ) juga akan semakin besar. Akibatnya model regresi yang diproleh
tidak valid untuk menafsir nilai variabel independent .
2.2 Indikasi
Indikasi adanya multikolinearitas
1. Nilai VIF >5 atau VIF > 10.
2. Uji parsial -t mengindikasi terima H0 (model tingkat) nyata uji F
mengindikasi tolak H0 (model nyata).
3. R-sq (adj) bernilai tinggi.
4. Adanya korelasi antara variabel bebas.
5. Ketidak sesuaian hubungan antara peubah bebas dan peubah respon
berdasarkan teori dan hasil.
6. Indeks kondisi (condition indeks) dilakukan dengan mengukur peubah akar
ciri yang umum :
𝑿𝒎𝒂𝒙
C1 = √ 𝑿𝒎𝒊𝒏
Jika C1 > 30 maka menandakan derajat multikolinearitas yang tinggi.
3. STUDI KASUS
No Y X1 X2 X3 X4 X5 X6
1 1231259 1221.02 101.518 100.741 6.366 231.988 0.15
2 3784049 1252.35 107.148 95.819 7.296 282.953 0.135
3 12610093 929.03 49.919 115.86 10.348 646.352 0.135
4 16262677 1020.79 64.109 102.191 12.192 457.276 0.135
5 19652917 1066.94 106.114 81.993 13.052 333.007 0.135
6 26066585 1018.6 159.541 69.089 14.347 356.899 0.135
7 54588512 4327.72 164.611 49.617 16.065 287.178 0.135
8 84680680 3793.76 139.723 53.641 17.447 310.394 0.135
9 1.01E+08 3613.34 140.651 51.051 18.329 381.087 0.193
10 1.28E+08 2771.18 87.752 52.635 17.247 42.792 0.178
11 1.59E+08 2841.22 96.019 43.769 19.239 390.727 0.187
12 2.05E+08 2808.28 93.805 44.101 20.155 32.182 0.196
13 2.48E+08 2847.93 78.978 41.936 21.008 40.113 0.188
14 3.09E+08 2933.46 80.505 44.015 23.781 428.146 0.232
15 4.08E+08 2909.73 77.761 44.048 24.999 376.041 0.191
16 5.78E+08 2922.27 99.133 44.405 26.512 420.033 0.1819
17 6.90E+08 2959 112.733 36.717 29.096 376.027 0.1528
18 7.71E+08 3021.99 144.148 29.589 30.986 28.298 0.1527
19 8.26E+08 3096.76 150.796 28.13 33.066 240.781 0.161
20 9.71E+08 3057.78 147.18 24.718 35.041 223.297 0.1741
21 8.58E+08 933.63 56.405 18.54 37.813 225.327 0.1833
22 1.19E+09 820.67 95.347 4.043 76.989 169.289 0.262
23 1.58E+09 925.35 136.239 4.773 81.369 211.452 0.179
24 1.73E+09 707.91 113.51 4.731 90.048 227.233 0.1686
25 1.73E+09 665.66 126.703 3.957 97.379 246.266 0.179
26 1.76E+09 795 208.356 3.406 100 224.986 0.1782
27 1.65E+09 865.11 223.453 3.754 104.37 246.344 0.1575
28 1.63E+09 824.06 200.482 4.019 110.2 241.005 0.1391
29 1.80E+09 812.45 183.482 3.774 116.39 254.001 0.1623
30 1.88E+09 921.43 211.937 3.642 126.16 278.449 0.1542
6. Selanjutnya untuk menentukan uji normalitas tekan storage, centang fits,residuals, dan
coefficients lalu tekan ok.
Regression Equation
Y = 714029226 - 75713751 X1 - 64243788 X2 - 333358248 X3 + 415451405 X4
+ 23057719 X5
- 80778798 X6
Fits and Diagnostics for Unusual Observations
Std
Obs Y Fit Resid Resid
20 971000000 641852774 329147226 2.26 R
R Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic = 0.865173
T = 30 K=6
dl = 0.9982 du = 1.9312
Kesimpulan : Dw < dl , terdapat Gejala autokerelasi
Principal Component Analysis: X1, X2, X3, X4, X5, X6
Eigenanalysis of the Correlation Matrix
Eigenvalue 2.6825 1.4516 1.0061 0.6555 0.1630 0.0412
Proportion 0.447 0.242 0.168 0.109 0.027 0.007
Cumulative 0.447 0.689 0.857 0.966 0.993 1.000
Eigenvectors
Variable PC1 PC2 PC3 PC4 PC5 PC6
X1 0.258 -0.435 0.633 0.449 0.189 -0.324
X2 -0.442 0.304 0.487 0.240 -0.626 0.160
X3 0.554 0.239 -0.023 -0.233 -0.524 -0.553
X4 -0.575 0.170 -0.175 0.119 0.208 -0.743
X5 0.286 0.427 -0.343 0.778 0.062 0.099
X6 -0.134 -0.671 -0.461 0.260 -0.501 -0.039
Principal Component Analysis: X3, X4
Eigenanalysis of the Correlation Matrix
Eigenvalue 1.8114 0.1886
Proportion 0.906 0.094
Cumulative 0.906 1.000
Eigenvectors
Variable PC1 PC2
X3 -0.707 -0.707
X4 0.707 -0.707
Interpretasi :
Karena hasil dari PCA < 5 jadi sudah tidak ada gejala multikolinearitas.
Kesimpulan :
Dari data kasus diatas dapat disimpulkan bahwa yang memiliki gejala multikolinearitas terdapat
pada X3 dan X4 ,dan gejala multikolinearitas tersebut di atasi dengan mencari PCA ( Principal
component analysis).
DAFTAR PUSTAKA
https://youtu.be/4JLTOPBk-G8