Anda di halaman 1dari 5

Tugas Pengantar Model Linier – B

Zidane Ariyandy
175090500111039
I. Rangkuman Materi Pertemuan 18 November 2020

1. Penanganan Multikolinieritas

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau hubungan
kuat antara dua variabel bebas atau lebih dalam sebuah model regresi berganda. Penyebab
multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua variabel bebas atau
lebih. Multikolinieritas mengindikasikan bahwa antar variabel bebas memiliki kombinasi linier,
hal ini menyebabkan matriks (X’X) akan bersifat singular, sehingga memiliki vektor jawab yang
tidak khas. Cara mendeteksi adanya multikolinearitas di dalam model regresi adalah dengan cara
melihat nilai Variance Inflating Factor (VIF). Apabila nilai VIF > 10, maka terjadi
multikolinieritas. Penanganan multikolinieritas adalah dengan mereduksi variabel bebas, regresi
ridge, melakukan regresi PCA, ataupun melakukan transformasi terhadap data dengan
penyesuaian pada interpretasi model regresi yang nantinya didapatkan

2. Penanganan Outlier
Outlier atau pencilan, merupakan suatu observasi pada kumpulan data yang berbeda
polanya atau nilainya dari observasi-observasi lainnya pada kumpulan data tersebut. Munculnya
outlier pada kumpulan data disebabkan oleh beberapa kemungkinan, yaitu:

- Adanya kesalahan prosedur dalam memasukkan data

- Kesalahan dalam pengukuran atau analisis; dan

- Adanya keadaan yang benar-benar khusus, seperti pandangan responden terhadap sesuatu

yang menyimpang dikarenakan adanya suatu alasan yang tidak diketahui oleh peneliti
sendiri.
Cara pendeteksian outlier adalah dengan membuat scatter plot. Untuk mengatasi outlier pada
suatu data, dapat dilihat terlebih dahulu apakah ada kesalahan dalam pengambilan data. Bisa
juga dengan membuang/mengganti data, namun langkah ini tidak disarankan. Cara lain untuk
mengatasi outlier adalah dengan pembobotan WLS (Weighted Least Square).

3. Regresi Polinomial
Model umum untuk regresi polinomial adalah sebagai berikut:
𝑌1 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋𝑖 2 + ⋯ + 𝛽𝑚 𝑋𝑖 𝑚 + 𝜀𝑖  i = 1,2,…, n

Apabila terdapat suatu model regresi non linier yang dipaksa untuk dimodelkan dengan regresi
linier, maka model tidak akan sesuai yang akan berdampak pada nilai R2. Sehingga dapat dilakukan
tranformasi tertentu untuk mendapatkan model regresi non linier yang intrinsik linier.
II. Analisis Regresi Polinomial Pangkat
3 a. Data dan Hasil Transformasi

Y X1 X2 X3 abs(x1-rata2) abs(x2-rata2) abs(x3-rata2)

10 2 4 8 12.9 285.5 6263.1

20 4 16 64 10.9 273.5 6207.1

30 8 64 512 6.9 225.5 5759.1

40 11 121 1331 3.9 168.5 4940.1

50 14 196 2744 0.9 93.5 3527.1

42 16 256 4096 1.1 33.5 2175.1

36 20 400 8000 5.1 110.5 1728.9

30 22 484 10648 7.1 194.5 4376.9


25 25 625 15625 10.1 335.5 9353.9
22 27 729 19683 12.1 439.5 13411.9

b. Matriks Rancangan

• Polinomial Pangkat Dua


Model Regresi:
𝑌1 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋1 2
𝟏𝟎 𝟏 𝟐 𝟒 𝜀1
𝟐𝟎 𝟏 𝟒 𝟏𝟔 𝜀2
𝟑𝟎 𝟏 𝟖 𝟔𝟒 𝜀3
𝟒𝟎 𝟏 𝟏𝟏 𝟏𝟐𝟏 𝛽0 𝜀4
𝟓𝟎 𝟏 𝟏𝟒 𝟏𝟗𝟔 𝛽 𝜀5
= [ 1] + 𝜀
𝟒𝟐 𝟏 𝟏𝟔 𝟐𝟓𝟔 6
𝟑𝟔 𝟏 𝟐𝟎 𝟒𝟎𝟎 𝛽2 𝜀7
𝟑𝟎 𝟏 𝟐𝟐 𝟒𝟖𝟒 𝜀8
𝟐𝟓 𝟏 𝟐𝟓 𝟔𝟐𝟓 𝜀9
[𝟐𝟐] [𝟏 𝟐𝟕 𝟕𝟐𝟗] [𝜀10 ]
Analisis Regresi
Hipotesis: Hipotesis: 𝐻0 ∶ 𝐵𝑖 = 0 𝑣𝑠 𝐻1 : 𝑚𝑖𝑛𝑖𝑚𝑎𝑙 𝑎𝑑𝑎 1 𝐵𝑖 ≠ 0
Analysis of Variance1
Source DF Adj SS Adj MS F-Value P-Value

Regression 2 1240.17 620.085 164.85 0.000


abs(x1-rata2) 1 482.64 482.635 128.31 0.000
abs(x2-rata2) 1 59.84 59.836 15.91 0.005
Error 7 26.33 3.761
Total 9 1266.50

Keputusan : Nilai p-value < 5%, maka Tolak H0


Kesimpulan : Dengan tingkat kepercayaan sebesar 95% maka dapat disimpulkan bahwa variabel x 1 dan
x2 berpengaruh secara signifikan terhadap variabel y.

Koefisien Determinasi (R2)

S R-sq R-sq(adj) R-sq(pred)

1.93945 97.92% 97.33% 95.48%

Berdasarkan nilai dari R2 di atas, dapat dikatakan bahwa kemampuan variabel X dapat memberikan
penjelasan sebesar 97.92% terhadap variabel Y, sedangkan 2.08% dipengaruhi atau dijelaskan oleh variabel
lain yang tidak dimasukkan ke dalam model.
Model Regresi yang Terbentuk
y1 = 47.39 - 3.847 abs(x1-rata2) + 0.0483 abs(x2-rata2)
• Polinomial Pangkat Tiga

𝑌1 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋1 2 + 𝛽3 𝑋1 𝑋2 , 𝑋2 = 𝑋1 2

𝟏𝟎 𝟏 𝟐 𝟒 𝟖 𝜀1
𝟐𝟎 𝟏 𝟒 𝟏𝟔 𝟔𝟒 𝜀2
𝟑𝟎 𝟏 𝟖 𝟔𝟒 𝟓𝟏𝟐 𝜀3
𝟒𝟎 𝟏 𝟏𝟏𝟏𝟐𝟏 𝟏𝟑𝟑𝟏 𝛽0 𝜀4
𝟓𝟎 𝟏 𝟏𝟒𝟏𝟗𝟔 𝟐𝟕𝟒𝟒 𝛽1 𝜀5
= [ ]+ 𝜀
𝟒𝟐 𝟏 𝟏𝟔𝟐𝟓𝟔 𝟒𝟎𝟗𝟔 𝛽2 6
𝟑𝟔 𝟏 𝟐𝟎𝟒𝟎𝟎 𝟖𝟎𝟎𝟎 𝛽3 𝜀7
𝟑𝟎 𝟏 𝟐𝟐𝟒𝟖𝟒 𝟏𝟎𝟔𝟒𝟖 𝜀8
𝟐𝟓 𝟏 𝟐𝟓𝟔𝟐𝟓 𝟏𝟓𝟔𝟐𝟓 𝜀9
[𝟐𝟐] [𝟏 𝟐𝟕𝟕𝟐𝟗 𝟏𝟗𝟔𝟖𝟑] [𝜀10 ]
Analisis Regresi
Hipotesis: 𝐻0 ∶ 𝐵𝑖 = 0 𝑣𝑠 𝐻1 : 𝐵𝑖 ≠ 0
Analysis of Variance

Source DF Adj SS Adj MS F-Value P-Value

Regression 2 1240.17 620.085 164.85 0.000


abs(x1-rata2) 1 482.64 482.635 128.31 0.000
abs(x2-rata2) 1 59.84 59.836 15.91 0.005
Error 7 26.33 3.761
Total 9 1266.50

Keputusan : Nilai p-value < 5%, maka Tolak H0.


Kesimpulan : Dengan tingkat kepercayaan sebesar 95% maka dapat disimpulkan bahwa variabel x 1, x2,
dan x3 berpengaruh secara signifikan terhadap variabel y.

Koefisien Determinasi (R2)

S R-sq R-sq(adj) R-sq(pred)

1.71359 98.61% 97.91% 94.67%

Berdasarkan nilai dari R2 di atas, dapat dikatakan bahwa kemampuan variabel X dapat memberikan
penjelasan sebesar 98.61% terhadap variabel Y, sedangkan 1.39% dipengaruhi atau dijelaskan oleh variabel
lain yang tidak dimasukkan ke dalam model.
Kesimpulan:

Berdasarkan nilai R2 dari model regresi polinomial pangkat dua dan pangkat tiga, dapat disimpulkan bahwa
model regresi pangkat tiga lebih baik karena memiliki nilai R2 lebih tinggi

Anda mungkin juga menyukai