Anda di halaman 1dari 75

LAPORAN TUGAS PROYEK

ANALISIS REGRESI

DOSEN: Dra. Helma, M.Si

Disusun Oleh :

Azizah Saswandila

NIM: 19029075

PROGRAM STUDI MATEMATIKA

JURUSAN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS NEGERI PADANG

2021

KATA PENGANTAR
Puji dan syukur penulis panjatkan kehadirat Tuhan yang Maha Esa karena berkat
rahmat dan anugerah-Nya yang memberikan kesehatan dan nikmat kepada penulis sehingga
laporan ini dapat diselesaikan dengan baik sesuai dengan waktu yang direncanakan. Laporan
ini berisikan pembahasan tentang proses pengolahan data dengan menggunakan software
Minitab. Laporan ini disusun untuk memenuhi tugas pada mata kuliah Analisis Regresi.

Dalam kesempatan ini, penulis mengucapkan banyak terima kasih kepada Ibu Dra.
Helma, M.Si yang telah membimbing dan mengajari penulis dalam pembuatan laporan ini.
Penulis juga berterima kasih kepada teman-teman yang telah banyak memberikan dukungan
dari awal hingga selesainya penulisan laporan ini.

Penulis telah berupaya dengan semaksimal mungkin dalam penyelesaian laporan ini.
Namun penulis menyadari masih banyak kelemahan baik dari segi isi maupun tata bahasa,
untuk itu penulis mengharapkan saran dan kritik yang bersifat membangun dari pembaca
demi sempurnanya laporan ini. Kiranya isi laporan ini dapat bermanfaat dalam memperkaya
khasanah ilmu pendidikan.

Padang, 5 Desember 2021

Penulis

BAB I

PENDAHULUAN
A. Latar Belakang

Analisis regresi adalah analisis statistika yang sering digunakan dalam segala bidang
ilmu pengetahuan. Analisis ini bertujuan untuk memodelkan hubungan antara dua jenis

variabel yaitu variabel tak bebas dengan satu atau lebih variabel bebas dalam
suatu sistem. Hubungan antara variabel-variabel tersebut dinyatakan dalam suatu model

regresi yang secara umum dinyatakan sebagai , dengan menyatakan error


atau galat. Model tersebut menghubungkan variabel bebas dan tak bebas melalui suatu

parameter yang dinamakan sebagai parameter regresi, dinotasikan dengan .

Model regresi dapat diperoleh dengan melakukan estimasi terhadap parameter


modelnya. Untuk menduga nilai parameter regresi ini biasanya digunakan Metode
Kuadrat Terkecil (MKT), dimana prinsip kerjanya adalah meminimumkan jumlah
kuadrat sisaan nilai observasi terhadap rata-rata nilai dugaannya. Metode MKT ini
diterapkan jika beberapa asumsi terpenuhi, seperti asumsi kenormalan, non-
multikolinieritas, kehomogenan ragam sisaan (homoskedastisitas) dan non autokorelasi.
Semua asumsi harus terpenuhi supaya didapatkan penduga parameter yang bersifat
BLUE (Best Linier Unbiased Estimator).

Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu
dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear
berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi
linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-
penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak
digunakan adalah SPSS (Statistical Package For Service Solutions).

B. Tujuan

Laporan ini bertujuan untuk melakukan proses pengolahan data dalam membuat
model regresi untuk membentuk model terbaik dengan menggunakan software Minitab.

BAB II
Pada bagian ini membahas proses pengolahan data dalam membentuk model regresi
dengan menggunakan software Minitab.

Data yang digunakan adalah sebagai berikut.


Tabel 1. Skor Karakteristik Dalam Pembelajaran Matematika Kelas XI Untuk Masing-
Masing Faktor Dari Setiap Siswa

Proses pengolahan data tersebut dengan menggunakan software Minitab akan diuraikan
sebagai berikut:

1. MELAKUKAN PLOT DATA DENGAN MATRIKS PLOT


Matrix Plot adalah plot yang berbentuk matriks, umumnya digunakan untuk melihat
korelasi antar variabel. Berikut ini langkah-langkah membentuk matrix plot dari
y ; x1 ; x 2 ; x 3 ; x 4 ; x 5 dari data di atas.
Berdasarkan langkah-langkah di atas, diperoleh matrix plot dari y ; x1 ; x 2 ; x 3 ; x 4 ; x 5
sebagai berikut.
KETERANGAN :
y : Hasil Belajar Semester Ganjil
x1 : Latar Belakang
x2 : Minat
x3 : Sikap
x4 : Motivasi
x5 : Gaya Belajar
INTERPRETASI MATRIX PLOT:
Matrix plot di atas digunakan untuk melihat hubungan antara y dengan x 1 , x 2 , x 3 , x 4 ,
dan x 5. Jika pencaran titik membentuk garis lurus maka terdapat hubungan linear
antar variabel seperti pembahasan pada tabel berikut.

Apakah pencaran
titik kira-kira
Baris Kolom Kesimpulan
membentuk
garis?

I II Ya , Terdapat hubungan linear antara y dengan x1

I III Ya, Terdapat hubungan linear antara y dengan x2

I IV Ya, Terdapat hubungan linear antara y dengan x3

I V Ya, Terdapat hubungan linear antara y dengan x4

I VI Ya, Terdapat hubungan linear antara y dengan x5

Karena terdapat minimal satu variable regressor yang berhubungan linear


dengan y, maka dapat disimpulkan sebagai berikut.

KESIMPULAN MATRIKS PLOT:

Regresi linear dapat digunakan untuk menunjukkan hubungan antara y dengan


x 1 , x 2 , x 3 , x 4 , x 5.

2. MEMBENTUK MODEL REGRESI


Model regresi adalah persamaan matematika yang dapat meramalkan nilai-nilai suatu
variabel tak bebas (dependen) dari nilai-nilai variabel bebas (independen). Pada
regresi harus ada variabel yang ditentukan dan variabel yang menentukan atau dengan
kata lain adanya ketergantungan variabel yang satu dengan variabel yang lainnya.
Untuk menentukan bentuk hubungan (model) diperlukan pemisahan yang tegas antara
variabel bebas yang diberi simbol x dan variabel tak bebas yag diberi symbol y .
Hubungan tersebut dapat dituliskan dalam bentuk persamaan yang menghubungkan
variabel tak bebas dengan variabel bebas. Persamaan Regresi memiliki bermacam-
macam bentuk seperti, regresi linear sederhana dan regresi linear berganda yang
digunakan untuk mencari hubungan linear antara variabel bebas dan variabel terikat.
Perbedaannya terletak pada jumlah variabel bebas, pada regresi linear sederhana
hanya ada satu variabel bebas, sedangkan regresi linear berganda memiliki variabel
bebas lebih dari satu. Kemudian, Regresi data panel yang merupakan regresi bagi data
cross section ataupun runtun waktu. Sedangkan regresi spasial yang merupakan
regresi bagi data yang memiliki efek spasial.

Model regresi linear berganda merupakan suatu model regresi yang memuat lebih dari

satu variabel regressor. Model regresi linear berganda dengan k regressor adalah

Parameter , j = 0, 1, 2, 3, …, k disebut koefisien regresi

Parameter , j = 1, 2, 3, …, k disebut koefisien regresi parsial

Berikut ini adalah langkah-langkah dalam membentuk model regresi:


Berdasarkan langkah-langkah di atas, diperoleh hasil output Minitab sebagai berikut:

Regression Analysis: y versus x1, x2, x3, x4, x5


Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regressio 5 1390.13 278.027 0.99 0.451
n
  x1 1 6.75 6.755 0.02 0.879
  x2 1 81.33 81.330 0.29 0.597
  x3 1 3.09 3.094 0.01 0.918
  x4 1 115.41 115.415 0.41 0.530
  x5 1 547.97 547.971 1.95 0.179
Error 19 5348.11 281.479    
Total 24 6738.24      

Model Summary

S R-sq R-sq(adj) R-
sq(pred)
16.777 20.63% 0.00% 0.00%
3

Coefficients

Term Coef SE Coef T-Value P-Value VIF


Constant 12.5 40.6 0.31 0.762  
x1 0.092 0.592 0.15 0.879 1.83
x2 0.266 0.496 0.54 0.597 3.49
x3 0.069 0.658 0.10 0.918 3.00
x4 - 0.528 -0.64 0.530 2.59
0.338
x5 0.581 0.417 1.40 0.179 1.98

Regression Equation

y = 12.5 + 0.092 x1 + 0.266 x2 + 0.069 x3 - 0.338 x4 + 0.581 x5

Model Regresinya adalah

y = 12.5 + 0.092 x1 + 0.266 x2 + 0.069 x3 - 0.338 x4 + 0.581 x5

INTERPRETASI MODEL REGRESI:


Dari hasil output minitab diatas,diperoleh suatu Model Regresi yaitu

y = 12.5 + 0.092 x1 + 0.266 x2 + 0.069 x3 - 0.338 x4 + 0.581 x5

Model regresi diatas merupakan Model Regresi Linear Berganda

() ( )
y1 x 11 x 12 x 13 x 14 x 15
y2 x 21 x 22 x 23 x 24 x 25
y= y 3 dan x= x 31 x 32 x 33 x 34 x 35
y4 x 41 x 42 x 43 x 44 x 45
y5 x 51 x 52 x 53 x 54 x 55

−1
b=( x x ) (x y)
t t

Koefisien Regresinya adalah

Term Coef
Constant 12.5
x1 0.092
x2 0.266
x3 0.069
x4 -0.338
x5 0.581
Hal ini berarti,

b0 12.5
b1 0.092
b2 0.266
b3 0.069
b4 -0.338
b5 0.581

Dalam hal ini

, j=0,1,2,3,4,5 adalah estimasi kuadrat terkecil koefisien regresi

, j=1,2,3,4,5 adalah estimasi kuadrat terkecil koefisien regresi


parsial
Berdasarkan pengolahan data di atas, diperoleh Model Regresi Linear Berganda
karena memuat lebih dari satu variabel regressor, dengan model regresinya adalah

y = 12.5 + 0.092 x1 + 0.266 x2 + 0.069 x3 - 0.338 x4


+ 0.581 x5

3. MEMBENTUK R2
R 2 atau disebut juga koefisien korelasi darab atau koefisien penentu
(determinasi) merupakan ukuran kecocokan model regresi yang diperoleh dengan data

dan . Koefisien ini juga bertujuan untuk mengetahui persentase pengaruh


variabel regressor terhadap variabel respon .

Apabila R2 bernilai 0 , maka Jumlah Kuadrat Regresi = 0 sehingga Jumlah


Kuadrat Total = Jumlah Kuadrat Sisa. ^y i= y .

Apabila R2 bernilai 1, maka Jumlah Kuadrat Sisa = 0 sehingga Jumlah Kuadrat


Total = Jumlah Kuadrat Regresi.

Semakin dekat nilai R2 ke 1, semakin baik kecocokan data dengan model.


Sebaliknya, semakin dekat nilai R2 ke 0 , semakin jelek kecocokan data dengan model.

Dari hasil output Minitab pada pengolahan sebelumnya, diperoleh model regresi dan
diperoleh bahwa

R-sq
20.63%

Dalam hal ini, R2=20.63 %

Artinya,sebesar 20.63 % dari seluruh variasi total y diterangkan oleh x 1 , x 2 , x 3 , x 4 , dan


x 5 dan masih ada sebesar 79.37 % variasi y yang tidak dapat diterangkan oleh model
yang digunakan. Bagian sisanya yang 79.37 % ini mungkin disebabkan oleh faktor
lain yang gagal diperhitungkan dalam model.

4. UJI SIGNIFIKANSI MODEL REGRESI

Uji ini dilakukan untuk mengetahui apakah variable regressor secara bersama-sama
mempengaruhi model regresi atau tidak. Uji kelayakan model keseluruhan dari
koefisien regresi untuk mengetahui apakah secara bersama-sama
mempengaruhi . Uji untuk menentukan apakah terdapat suatu hubungan linear

antara respons dengan sebarang variabel regressor .

Adapun uji hipotesis yang digunakan

H 0 : β 1=β 2=…=β k =0

untuk paling kurang satu j=1, 2, 3, …, k

Dari hasil output minitab, diperoleh

Analysis of Variance

Source DF Adj Adj MS F- P-Value


SS Value
Regressio 5 1390 278.0 0.99 0.451
n
Error 19 5348 281.5    
Total 24 6738      

Dengan menggunakan nilai statistik uji nilai P (P-Value) dan α =0,2. P-value
(signifikansi) kurang dari sama dengan 0,2 menunjukkan bahwa terdapat cukup bukti
untuk menolak Ho (Ho ditolak), yang berarti bahwa terdapat hubungan yang
signifikan antara variabel x dan variabel y . Sedangkan jika P-Value lebih besar dari
0,2 maka tidak cukup bukti untuk menolak Ho (Ho tidak ditolak) yang berarti bahwa
tidak ada hubungan yang signifikan antara variabel x dan variabel y .

Sumber Jumlah Kuadrat Derajat Rataan


F
Variasi (JK) Kebebasan (dk) Kuadrat (RK)

( )
n 2
RKR
∑ yi RKS
Regresi i=1 k RKR
n
bt xt y 

Sisa yt y  bt xt y nk1 JKS / (n k1)


(∑ )
n 2
yi
Total i=1 n1
n
yt y 

Berdasarkan tabel diatas diperoleh nilai P=0.451 yang berarti tolak H1 : i ≠ 0 ,


untuk paling kurang satu i = 1, 2, 3,4,5. Hal ini berarti bahwa

KESIMPULAN:

a. x 1 , x 2 , x 3 , x 4 , x 5 belum dapat dikatakan secara bersama-sama mempengaruhi y

b. Tidak dapat dikatakan terdapat suatu hubungan linear antara respons y dengan
sebarang variabel regressor x 1 , x 2 , x 3 , x 4 , x 5

c. Model belum dapat digunakan


Dengan demikian, perlu dilakukan telaah selanjutnya pada data.

5. UJI SIGNIFIKANSI KOEFISIEN REGRESI MODEL SECARA PARSIAL

Adapun keberartian masing-masing koefisien regresi, dapat dilihat sebagai berikut.

Term Coef SE T-Value P-Value


Coef
Constant 12.5 40.6 0.31 0.762
x1 0.092 0.592 0.15 0.879
x2 0.266 0.496 0.54 0.597
x3 0.069 0.658 0.10 0.918
x4 -0.338 0.528 -0.64 0.530
x5 0.581 0.417 1.40 0.179

H 0 : j = 0

H 1 : j ≠ 0

INTERPETASI UJI SIGNIFIKANSI KOEFISIEN REGRESI MODEL


SECARA PARSIAL:
Berdasarkan tabel diatas, diperoleh P-value dari x 5=0,179 . Dengan statistik uji nilai
P, hal ini berarti terima H1. Berdasarkan model regresinya, variabel regressor x 5

dengan koefisien regresi .

Jadi, x 5 mempunyai kontribusi terhadap y apabila x 1 , x 2 , x 3 , x 4 , dan x 5 juga ada


pada model. Yang berarti 5 signifikan dengan taraf kesalahan 20 % .

Perhatikan bahwa,

Model Summary

S R-sq R-sq(adj)

16.777 20.63% 0.00%


3

Analysis of Variance

Adj
Source DF Adj SS MS F-Value P-Value

Regressio 5 1390 278.0 0.99 0.451


n

Error 19 5348 281.5    

Total 24 6738      

(S = 16.7773)2 = (Adj MS Error = 281.5)  var (i) = 2 = var (yi )

Term Coef SE Coef


Constant 12.5 40.6
x1 0.092 0.592
x2 0.266 0.496
x3 0.069 0.658
x4 -0.338 0.528
x5 0.581 0.417

s(b0) = 40.6
s(b1) = 0.592
s(b2) = 0.496
s(b3) = 0.658
s(b4) = 0.528
s(b5) = 0.417

6. UJI ASUMSI KLASIK


Asumsi Klasik untuk Analisis Regresi Linear adalah

1) Kelinearan
2) E (i) = 0
3) Kesamaan Variansi, yaitu var (i) = 2 = var (yi )
4) Kenormalan Galat, yaitu i  N (0 , 2)
5) Sampel Acak
6) Galat tidak Berkorelasi, yaitu cov (i , j) = 0

Untuk menguji asumsi di atas, diperlukan olahan data sebagai berikut.


Pilih graphs
Pilih storage, pilih residuals

Pilih results, pilih Durbin-Watson statistics


Muncul Residual (RESI) pada worksheets MINITAB seperti berikut.

y x1 x2 x3 x4 x5 RESI
87 75 65 70 55 80 17.6254
36 75 75 75 70 65 -22.5880
60 75 75 70 70 70 -1.1496
30 80 80 70 70 80 -38.7532
73 65 95 80 70 95 -7.7835
60 65 75 70 85 100 -12.5970
63 70 75 70 75 70 4.0007
53 60 45 50 65 70 0.9052
67 75 70 75 75 80 2.7159
60 65 60 70 70 70 3.7629
23 70 65 70 65 60 -30.9060
83 80 85 75 85 90 11.8322
57 65 65 70 75 80 -4.6904
73 65 75 60 65 65 14.6720
60 60 60 75 70 90 -7.7501
67 75 100 90 100 95 -6.5712
73 75 75 70 75 65 16.4489
57 65 60 75 70 65 3.3246
90 65 75 80 70 90 17.4508
57 50 60 60 60 75 -3.4621
83 75 95 90 95 90 11.9755
73 70 70 70 70 75 10.7341
67 80 90 90 90 95 -7.7495
80 85 85 75 80 80 12.4952
80 70 75 75 70 75 16.0572

Hasil output Minitab sebagai berikut

Regression Analysis: y versus x1, x2, x3, x4, x5


Analysis of Variance
Source DF Adj SS Adj MS F- P-Value
Value
Regressio 5 1390.13 278.027 0.99 0.451
n
  x1 1 6.75 6.755 0.02 0.879
  x2 1 81.33 81.330 0.29 0.597
  x3 1 3.09 3.094 0.01 0.918
  x4 1 115.41 115.415 0.41 0.530
  x5 1 547.97 547.971 1.95 0.179
Error 19 5348.11 281.479    
Total 24 6738.24      

Model Summary
S R-sq R-sq(adj) R-
sq(pred)
16.777 20.63% 0.00% 0.00%
3
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 12.5 40.6 0.31 0.762  
x1 0.092 0.592 0.15 0.879 1.83
x2 0.266 0.496 0.54 0.597 3.49
x3 0.069 0.658 0.10 0.918 3.00
x4 - 0.528 -0.64 0.530 2.59
0.338
x5 0.581 0.417 1.40 0.179 1.98

Regression Equation
y = 12.5 + 0.092 x1 + 0.266 x2 + 0.069 x3 - 0.338 x4 + 0.581 x5

Fits and Diagnostics for Unusual Observations


Ob y Fit Resid Std Resid
s
4 30.00 68.75 - -2.61 R
38.75
11 23.00 53.91 - -2.04 R
30.91
R  Large residual

Durbin-Watson Statistic
Durbin-Watson Statistic 2.11030
=

Berikut ini dilakukan uji asumsi klasik:


1) Kelinearan
Untuk menguji linearitas model regresi yang diperoleh dapat dilakukan dengan
(Qudratullah, 2013: 97)
 Pendekatan analisis variansi ”murni” , atau

 Plot sisaan terhadap yi. Jika sisaan tersebar secara acak dan tidak memiliki
pola khusus, maka model dapat dikatakan linear.
Diperoleh plot Residual Plots for y Versus Fits

INTERPRETASI:

Sisaan terlihat tersebar secara acak dan tidak memiliki pola khusus, maka
model dapat dikatakan linear. Hal ini berarti asumsi kelinearan terpenuhi.

2) E (i) = 0
Ambil RESI pada hasil table di atas.
RESI
17.6254
-22.5880
-1.1496
-38.7532
-7.7835
-12.5970
4.0007
0.9052
2.7159
3.7629
-30.9060
11.8322
-4.6904
14.6720
-7.7501
-6.5712
16.4489
3.3246
17.4508
-3.4621
11.9755
10.7341
-7.7495
12.4952
16.0572

Dalam hal ini akan dilihat apakah ei = 0 .

INTERPRETASI:

Berdasarkan hasil perhitungan diperoleh ei = 2.84217E-14.

Hal ini berarti asumsi E(i ) = 0 terpenuhi.

3) Kesamaan Variansi, yaitu var (i) = 2 = var (yi )


Perhatikan plot Residual Plots for y Versus Fits

INTERPRETASI:

Sisaan terlihat tersebar secara acak dan tidak memiliki pola khusus, maka
model dapat dikatakan linear, tetapi diperkirakan adanya beberapa pencilan
yang mempengaruhi pola.
Hal ini berarti asumsi kesamaan variansi terpenuhi.

4) Kenormalan Galat, yaitu i  N (0 , 2)

Adapun statistik ujinya adalah uji Anderson-Darling dengan rumus

dan H0 : Galat berdistribusi normal


INTERPRETASI:

Dalam hal ini, ¿ 0,05

Hasil uji diperoleh: P=0,076

Karena P>0,05 , maka terima H0 .

Hal ini berarti, galat berdistribusi normal terpenuhi.

5) Sampel Acak
Menurut Sembiring (1995 : 46)
”Tidak ada cara memeriksa apakah terok yang diambil acak atau bukan, hanya
pelakunya (yang mengambil terok tersebut) yang tahu tentang hal itu. Kalau
terok tidak diambil secara acak maka nasi sudah menjadi bubur, tidak ada
usaha apapun yang dapat dilakukan untuk menjadikannya acak.”

6) Galat tidak Berkorelasi, yaitu cov (i , j) = 0


Rentangan nilai statistik-d Durbin – Watson,
menurut Sembiring (1995, 289), adalah 0 < d
< 4.

1. Jika nilai d dekat ke 0 , maka


diindikasikan ada autokorelasi positif
2. Jika nilai d statistik dekat ke 2 , maka
diindikasikan tidak ada autokorelasi.
3. Jika nilai d statistik dekat ke 4 , maka
diindikasikan ada autokorelasi negative

Hasil output Minitab:


Durbin-Watson Statistic
Durbin-Watson Statistic 2.11030 ≈ 2
=

INTERPRETASI:

Karena “d statistik dekat ke 2”, hal ini berarti asumsi galat tidak berkorelasi
terpenuhi.

KESIMPULAN UJI ASUMSI KLASIK:

Asumsi Klasik untuk Analisis Regresi Linear adalah

a. Kelinearan terpenuhi

b. terpenuhi

c. Kesamaan Variansi terpenuhi

d. Kenormalan Galat terpenuhi

e. Sampel Acak terpenuhi

f. Galat tidak Berkorelasi terpenuhi

7. APAKAH TRANSFORMASI DIPERLUKAN?


Berdasarkan pada Uji Asumsi Klasik, Asumsi:

a. Kelinearan terpenuhi

b. terpenuhi

c. Kesamaan Variansi terpenuhi, tetapi diperkirakan adanya beberapa pencilan


yang mempengaruhi pola.

d. Kenormalan Galat terpenuhi

e. Galat tidak Berkorelasi terpenuhi


Transformasi diperlukan apabila asumsi dari regresi ada yang tidak terpenuhi.
Hal ini berarti, tidak diperlukan transformasi pada data, tetapi perlu
menyisihkan pencilan.

KESIMPULAN: Tidak diperlukan transformasi pada data, tetapi perlu


menyisihkan beberapa pencilan yang diperkirakan mempengaruhi pola.

8. MENANGANI DATA PENCILAN DAN DATA YANG BERPENGARUH

Data Outlier disebut juga dengan data pencilan. Outlier adalah data observasi
yang muncul dengan nilai-nilai ekstrim, baik secara univariat ataupun
multivariat.Yang dimaksud dengan nilai-nilai ekstrim dalam observasi adalah nilai
yang jauh atau beda sama sekali dengan sebagian besar nilai lain dalam kelompoknya.

Munculnya outlier dilihat dari nilai studentized residual. Studentized residual


adalah nilai residual yang distandarisasi berdasarkan nilai mean dan standard deviasi.
Apabila nilai absolut dari studentized residual lebih dari 3, maka observasi yang
bersangkutan adalah sebagai outlier univariat. Untuk mengetahui outlier multivariat
pada regresi linear bisa dilihat dari nilai leverage atau nilai probabilitas mahalanobis.
Jika nilai probabilitas mahalanobis kurang dari 0,001 maka observasi yang
bersangkutan menjadi outlier multivariat.Artinya, kita akan membuang observasi
yang mempunyai nilai absolut studentized residual lebih dari 3 dan/atau probabilitas
kurang dari 0.001.

Jika kita sudah berhasil mengeluarkan outlier. Langkah selanjutnya, yaitu


mengulangi regresi linear berganda seperti langkah pertama, kemudian cek ulang
apakah masih ada outlier. Jika sudah tidak ada, tentunya lihat dan nilai apakah ada
masalah asumsi klasik lainnya.

Berikut ini langkah-langkah dalam menentukan apakah ada outlier atau data pencilan
dari data yang digunakan pada praktikum ini.
Pilih storage
Pilih results
Perhatikan

Fits and Diagnostics for Unusual Observations


Ob y Fit Resid Std Resid
s
4 30.00 68.75 - -2.61 R
38.75
11 23.00 53.91 - -2.04 R
30.91
R Large residual
4 30 80 80 70 70 80 - 0.3186 -
2.61325 40 1.6815
2
11 23 70 65 70 65 60 - 0.1536 -
2.03656 30 1.0569
4

Studentized Residual > 2

Jarak COOk < 2

Jarak FIT < 2

Kita coba menyisihkan dulu data no. 4 dan data no. 11, diregresikan lagi,
diperoleh

Fits and Diagnostics for Unusual Observations


Ob y Fit Resid Std Resid
s
2 36.00 66.60 - -2.96 R
30.60
R  Large residual

2 36 75 75 75 70 65 - 0.3498 -
2.96365 37 2.0217
1

Studentized Residual > 2

Jarak COOk < 2

Jarak FIT > 2

Kita coba menyisihkan dulu data no. 2 (data baru setelah data no.4 dan data
no.11 disisihkan), diregresikan lagi, diperoleh

Fits and Diagnostics for Unusual Observations


Obs y Fit Resid Std
Resi
d
16 90.0 73.63 16.37 2.23 R
0
R  Large residual

16 90 65 75 80 70 90 2.23284 0.2174 1.3328


11 5

Studentized Residual > 2

Jarak COOk < 2

Jarak FIT < 2

Kita coba menyisihkan dulu data no. 16 (data baru setelah data no.2),
diregresikan lagi, diperoleh

Fits and Diagnostics for Unusual Observations


Ob y Fit Resid Std Resid
s
2 60.00 74.34 - -2.19 R
14.34
17 83.00 69.78 13.22 2.20 R
R  Large residual
2 60 75 75 70 70 70 - 0.1273 -
2.18824 25 1.0234
1
17 83 75 95 90 95 90 2.19808 0.3040 1.5848
54 5

Studentized Residual > 2

Jarak COOk < 2

Jarak FIT < 2

Kita coba menyisihkan dulu data no. 2 dan data no. 17 (data baru setelah data
no.16 disisihkan), diregresikan lagi, diperoleh

y x1 x2 x3 x4 x5 SRES COOK DFIT


87 75 65 70 55 80 0.48238 0.059105 0.57734
73 65 95 80 70 95 -1.80395 0.812769 -2.45043
60 65 75 70 85 100 0.16891 0.003875 0.14666
63 70 75 70 75 70 -1.11298 0.034979 -0.46275
53 60 45 50 65 70 -0.93866 0.147107 -0.93487
67 75 70 75 75 80 -0.88585 0.019967 -0.34306
60 65 60 70 70 70 0.03002 0.000031 0.01301
83 80 85 75 85 90 1.75936 0.174967 1.12778
57 65 65 70 75 80 -0.63310 0.007869 -0.21205
73 65 75 60 65 65 0.24128 0.006542 0.19077
60 60 60 75 70 90 0.78061 0.058972 0.58538
67 75 100 90 100 95 0.93122 0.129040 0.87508
73 75 75 70 75 65 0.31564 0.005131 0.16923
57 65 60 75 70 65 -0.31424 0.011143 -0.24937
57 50 60 60 60 75 0.21671 0.004863 0.16442
73 70 70 70 70 75 0.64213 0.005113 0.17101
67 80 90 90 90 95 -1.34414 0.119269 -0.87589
80 85 85 75 80 80 -0.89874 0.059631 -0.59342
80 70 75 75 70 75 1.97939 0.086723 0.82917

Studentized Residual < 2

Jarak COOk < 2

Jarak FIT < 2 kecuali data baru no.2, tetapi diperbolehkan karena FIT
sangat sensitif, kita lebih memperhatikan hasil pada STRES.

Sebelum data no. 4, no. 11, no. 2, no. Setelah data no. 4, no. 11, no. 2, no.16,
16, no. 2, dan no.17 disisihkan no. 2, dan no. 17 disisihkan

Regression Analysis: y versus x1, x2, x3, x4, Regression Analysis: y versus x1, x2, x3, x4,
x5 x5
Analysis of Variance Analysis of Variance
Source D Adj Adj F-Value P- Source D Adj Adj F-Value P-Value
F SS MS Value F SS MS
Regressio 5 1390. 278.0 0.99 0.451 Regressio 5 1512. 302.4 14.59 0.000
n 13 27 n 26 5
  x1 1 6.75 6.755 0.02 0.879   x1 1 616.7 616.7 29.74 0.000
  x2 1 81.33 81.33 0.29 0.597 0 0
0
  x2 1 243.0 243.0 11.72 0.005
  x3 1 3.09 3.094 0.01 0.918 0 0
  x4 1 115.4 115.4 0.41 0.530   x3 1 19.99 19.99 0.96 0.344
1 15
  x4 1 542.0 542.0 26.14 0.000
  x5 1 547.9 547.9 1.95 0.179 5 5
7 71
  x5 1 28.67 28.67 1.38 0.261
Error 19 5348. 281.4    
Error 13 269.5 20.73    
11 79
3
Total 24 6738.      
Total 18 1781.      
24
79
Model Summary Model Summary
S R-sq R-sq(adj) R-sq(pred)
S R-sq R-sq(adj) R-sq(pred)
16.7773 20.63% 0.00% 0.00%
4.55337 84.87% 79.05% 66.11%
Coefficients Coefficients
Term Coef SE Coef T- P- VIF
Term Coef SE T- P- VIF
Value Value
Coef Value Value
Constan 12.5 40.6 0.31 0.762  
Constan 28.5 11.5 2.49 0.027  
t
t
x1 0.092 0.592 0.15 0.879 1.83
x1 0.968 0.177 5.45 0.000 1.92
x2 0.266 0.496 0.54 0.597 3.49
x2 0.468 0.137 3.42 0.005 3.08
x3 0.069 0.658 0.10 0.918 3.00
x3 -0.198 0.201 -0.98 0.344 3.06
x4 -0.338 0.528 -0.64 0.530 2.59
x4 -0.811 0.159 -5.11 0.000 2.46
x5 0.581 0.417 1.40 0.179 1.98
x5 0.156 0.133 1.18 0.261 1.98
Regression Equation Regression Equation
y = 12.5 + 0.092 x1 + 0.266 x2 + 0.069 x3 -y = 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3
+ 0.581 x5 + 0.156 x5
Fits and Diagnostics for Unusual Observations Durbin-Watson Statistic
Obs y Fit Resid Std Resid
Durbin-Watson Statistic = 1.86787
4 30.00 68.75 -38.75 -2.61 R
11 23.00 53.91 -30.91 -2.04 R
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic = 2.11030

Setelah dilakukan penyisihan pencilan, diperoleh no unusual observations yang


berarti bahwa tidak terdapat outlier atau data pencilan dari data baru tersebut.

KESIMPULAN: Terdapat data pencilan pada praktikum ini. Setelah pencilan


dikeluarkan, kita perlu melakukan regresi linear berganda untuk data baru (setelah
pencilan disisihkan) dan menguji asumsi klasiknya.

9. Regresi Linear Berganda untuk Data Baru


Data baru yang digunakan setelah menyisihkan pencilan (data nomor 11, 12, 13, 20,
28, dan 30) adalah sebagai berikut.

Siswa y x1 x2 x3 x4 x5
10 87 75 65 70 55 80
14 73 65 95 80 70 95
15 60 65 75 70 85 100
16 63 70 75 70 75 70
17 53 60 45 50 65 70
18 67 75 70 75 75 80
19 60 65 60 70 70 70
21 83 80 85 75 85 90
22 57 65 65 70 75 80
23 73 65 75 60 65 65
24 60 60 60 75 70 90
25 67 75 100 90 100 95
26 73 75 75 70 75 65
27 57 65 60 75 70 65
29 57 50 60 60 60 75
31 73 70 70 70 70 75
32 67 80 90 90 90 95
33 80 85 85 75 80 80
34 80 70 75 75 70 75

KETERANGAN :

y : Hasil Belajar Semester Ganjil

x1 : Latar Belakang

x2 : Minat

x3 : Sikap

x4 : Motivasi

x5 : Gaya Belajar

a. Membentuk Matriks Plot


Dengan melakukakan langkah pada no.1, diperoleh matriks plot untuk data baru
adalah sebagai berikut.
INTERPRETASI MATRIX PLOT:
Matrix plot di atas digunakan untuk melihat hubungan antara y dengan
x 1 , x 2 , x 3 , x 4 , dan x 5. Jika pencaran titik membentuk garis lurus maka terdapat
hubungan linear antar variabel seperti pembahasan pada tabel berikut.

Apakah pencaran
Baris Kolom titik kira-kira Kesimpulan
membentuk garis?

Terdapat hubungan linear antara y


I II Ya ,
dengan x1

Ya, Terdapat hubungan linear antara y


I III
dengan x2

Ya, Terdapat hubungan linear antara y


I IV
dengan x3

Ya, Terdapat hubungan linear antara y


I V
dengan x4

I VI Tidak Tidak terdapat hubungan linear


antara y dengan x5

Karena terdapat minimal satu variable regressor yang berhubungan linear dengan
y, maka dapat disimpulkan sebagai berikut.

KESIMPULAN MATRIKS PLOT:

Regresi linear dapat digunakan untuk menunjukkan hubungan antara y dengan


x 1 , x 2 , x 3 , x 4 , x 5.

b. Membentuk Model Regresi


Dengan melakukakan langkah pada no.2, diperoleh output Minitab untuk data
baru sebagai berikut.

Regression Analysis: y versus x1, x2, x3, x4, x5


Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regressio 5 1512.26 302.45 14.59 0.000
n
  x1 1 616.70 616.70 29.74 0.000
  x2 1 243.00 243.00 11.72 0.005
  x3 1 19.99 19.99 0.96 0.344
  x4 1 542.05 542.05 26.14 0.000
  x5 1 28.67 28.67 1.38 0.261
Error 13 269.53 20.73    
Total 18 1781.79      
Model Summary
S R-sq R-sq(adj) R-
sq(pred)
4.5533 84.87% 79.05% 66.11%
7
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 28.5 11.5 2.49 0.027  
x1 0.968 0.177 5.45 0.000 1.92
x2 0.468 0.137 3.42 0.005 3.08
x3 - 0.201 -0.98 0.344 3.06
0.198
x4 - 0.159 -5.11 0.000 2.46
0.811
x5 0.156 0.133 1.18 0.261 1.98
Regression Equation
y = 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3 - 0.811 x4 + 0.156 x5

Model regresinya adalah

y = 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3 - 0.811 x4 + 0.156 x5

INTERPRETASI MODEL REGRESI:

Dari hasil output minitab diatas,diperoleh suatu Model Regresi yaitu

y = 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3 - 0.811 x4 + 0.156 x5

Model regresi diatas merupakan Model Regresi Linear Berganda

() ( )
y1 x 11 x 12 x 13 x 14 x 15
y2 x 21 x 22 x 23 x 24 x 25
y= y 3 dan x= x 31 x 32 x 33 x 34 x 35
y4 x 41 x 42 x 43 x 44 x 45
y5 x 51 x 52 x 53 x 54 x 55

−1
b=( x t x ) (x t y)
Koefisien Regresinya adalah

Term Coef
Constant 28.5
x1 0.968
x2 0.468
x3 -0.198
x4 -0.811
x5 0.156
Hal ini berarti,

b0 28.5
b1 0.968
b2 0.468
b3 -0.198
b4 -0.811
b5 0.156

Dalam hal ini

, j=0,1,2,3,4,5 adalah estimasi kuadrat terkecil koefisien regresi

, j=1,2,3,4,5 adalah estimasi kuadrat terkecil koefisien regresi


parsial

Berdasarkan pengolahan data di atas, diperoleh Model Regresi Linear Berganda


karena memuat lebih dari satu variabel regressor, dengan model regresinya adalah

y = 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3 - 0.811 x4 + 0.156 x5

c. Membentuk R2
Dari hasil output Minitab pada pengolahan sebelumnya, diperoleh:

S R-sq R-sq(adj) R-sq(pred)


4.55337 84.87% 79.05% 66.11%

Dalam hal ini, R2=84.87 %

Artinya,sebesar 84.87% dari seluruh variasi total y diterangkan oleh x 1 , x 2 , x 3 , x 4 ,


dan x 5 dan masih ada sebesar 15.13 % variasi y yang tidak dapat diterangkan oleh
model yang digunakan. Bagian sisanya yang 15.13 % ini mungkin disebabkan
oleh faktor lain yang gagal diperhitungkan dalam model.
d. Uji Signifikansi Model Regresi
Uji kelayakan model keseluruhan dari koefisien regresi untuk mengetahui apakah

secara bersama-sama mempengaruhi .

Adapun uji hipotesis yang digunakan

H 0 : β 1=β 2=…=β k =0

untuk paling kurang satu j=1, 2, 3, …, k


Dari hasil output minitab, diperoleh

Analysis of Variance

Source DF Adj Adj MS F- P-Value


SS Value
Regressio 5 1512.3 302.45 14.59 0.000
n
Error 13 269.5 20.73    
Total 18 1781.8      

Dengan menggunakan nilai statistik uji nilai P (P-Value) dan α =0,05 . P-value
(signifikansi) kurang dari sama dengan 0,05 menunjukkan bahwa terdapat cukup
bukti untuk menolak H 0 ( H 0 ditolak), yang berarti bahwa terdapat hubungan yang
signifikan antara variabel x dan variabel y . Sedangkan jika P-Value lebih besar
dari 0,05 maka tidak cukup bukti untuk menolak H 0 ( H 0 tidak ditolak), yang
berarti bahwa tidak ada hubungan yang signifikan antara variabel x dan variabel
y.

Sumber Jumlah Kuadrat Derajat Rataan


F
Variasi (JK) Kebebasan (dk) Kuadrat (RK)

(∑ )
n 2
yi
Regresi i =1 k RKR
n
bt xt y 
RKR
Sisa yt y  bt xt y nk1 JKS / (n k1) RKS

(∑ )
n 2
yi
Total i =1 n1
n
yt y 

Berdasarkan tabel diatas diperoleh nilai P=0,000 yang berarti terima H1 : i ≠ 0 ,


untuk paling kurang satu i = 1, 2, 3,4,5. Hal ini berarti bahwa

KESIMPULAN:
1) x 1 , x 2 , x 3 , x 4 , x 5 dapat dikatakan secara bersama-sama mempengaruhi y

2) Dapat dikatakan terdapat suatu hubungan linear antara respons y dengan


sebarang variabel regressor x 1 , x 2 , x 3 , x 4 , x 5.

3) Model dapat digunakan


Dengan demikian, analisis selanjutnya dapat dilakukan.
e. Uji Parsial untuk Setiap Koefisien Regresi

Adapun keberartian masing-masing koefisien regresi, dapat dilihat sebagai


berikut.

Coefficients
Term Coef SE T-Value P-Value
Coef
Constant 28.5 11.5 2.49 0.027
x1 0.968 0.177 5.45 0.000
x2 0.468 0.137 3.42 0.005
x3 -0.198 0.201 -0.98 0.344
x4 -0.811 0.159 -5.11 0.000
x5 0.156 0.133 1.18 0.261

H0 : j = 0

H1 : j ≠ 0

INTERPETASI UJI SIGNIFIKANSI KOEFISIEN REGRESI MODEL


SECARA PARSIAL:

Berdasarkan tabel diatas, diperoleh P-value dari x 1=0,000 , x 2=0,005 , dan


x 4 =0,000. Dengan statistik uji nilai P, hal ini berarti terima H 1. Berdasarkan
model regresinya, variabel regressor x 1, x 2, dan x 4 dengan koefisien regresi β 1, β 2,
dan β 4 .

Jadi, x 1, x 2, dan x 4 mempunyai kontribusi terhadap y apabila x 1 , x 2 , x 3 , x 4 , dan


x 5 secara bersama-sama juga ada pada model setelah menyisihkan pencilan. Yang
berarti β 1, β 2, dan β 4 signifikan dengan taraf kesalahan 5 %.
Perhatikan bahwa,

Model Summary

S R-sq R-sq(adj)
4.5533 84.87% 79.05%
7

Analysis of Variance

Adj
Source DF Adj SS MS F-Value P-Value
Regressio 5 1512.3 302.45 14.59 0.000
n
Error 13 269.5 20.73    
Total 18 1781.8      

(S = 4.55337)2 = (Adj MS Error = 20.73)  var (i) = 2 = var (yi )

Term Coef SE Coef


Constant 28.5 11.5
x1 0.968 0.177
x2 0.468 0.137
x3 -0.198 0.201
x4 -0.811 0.159
x5 0.156 0.133

s(b0) = 11.5
s(b1) = 0.177
s(b2) = 0.137
s(b3) = 0.201
s(b4) = 0.159
s(b5) = 0.133

f. Uji Asumsi Klasik


Asumsi Klasik untuk Analisis Regresi Linear adalah

1) Kelinearan
2) E (i) = 0
3) Kesamaan Variansi, yaitu var (i) = 2 = var (yi )
4) Kenormalan Galat, yaitu i  N (0 , 2)
5) Sampel Acak
6) Galat tidak Berkorelasi, yaitu cov (i , j) = 0

Dengan mengikuti langkah pada no. 6, diperoleh grafik, RESI, dan output
Minitab sebagai berikut.

y x1 x2 x3 x4 x5 RESI
87 75 65 70 55 80 1.38251
73 65 95 80 70 95 -5.19656
60 65 75 70 85 100 0.57092
63 70 75 70 75 70 -4.68632
53 60 45 50 65 70 -3.02091
67 75 70 75 75 80 -3.75699
60 65 60 70 70 70 0.12462
83 80 85 75 85 90 6.92263
57 65 65 70 75 80 -2.72661
73 65 75 60 65 65 0.84906
60 60 60 75 70 90 2.82712
67 75 100 90 100 95 3.08196
73 75 75 70 75 65 1.25619
57 65 60 75 70 65 -1.10490
57 50 60 60 60 75 0.77497
73 70 70 70 70 75 2.82081
67 80 90 90 90 95 -5.17988
80 85 85 75 80 80 -3.40678
80 70 75 75 70 75 8.46813

Regression Analysis: y versus x1, x2, x3, x4, x5


Analysis of Variance
D Adj
Source F Adj SS MS F-Value P-Value
Regression 5 1512.26 302.45 14.59 0.000
  x1 1 616.70 616.70 29.74 0.000
  x2 1 243.00 243.00 11.72 0.005
  x3 1 19.99 19.99 0.96 0.344
  x4 1 542.05 542.05 26.14 0.000
  x5 1 28.67 28.67 1.38 0.261
Error 13 269.53 20.73    
Total 18 1781.79      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.55337 84.87% 79.05% 66.11%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 28.5 11.5 2.49 0.027  
x1 0.968 0.177 5.45 0.000 1.92
x2 0.468 0.137 3.42 0.005 3.08
x3 -0.198 0.201 -0.98 0.344 3.06
x4 -0.811 0.159 -5.11 0.000 2.46
x5 0.156 0.133 1.18 0.261 1.98
Regression Equation
y = 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3 - 0.811 x4 + 0.156 x5
Durbin-Watson Statistic
Durbin-Watson Statistic 1.86787
=

Berikut ini dilakukan uji asumsi klasik:


1) Kelinearan
Untuk menguji linearitas model regresi yang diperoleh dapat dilakukan
dengan (Qudratullah, 2013: 97)
 Pendekatan analisis variansi ”murni” , atau

 Plot sisaan terhadap yi. Jika sisaan tersebar secara acak dan tidak
memiliki pola khusus, maka model dapat dikatakan linear.

Diperoleh plot Residual Plots for y Versus Fits

INTERPRETASI:

Sisaan terlihat tersebar secara acak dan tidak memiliki pola khusus, maka
model dapat dikatakan linear. Hal ini berarti asumsi kelinearan terpenuhi.

2) E (i) = 0
Ambil RESI pada hasil table di atas.
RESI
1.38251
-5.19656
0.57092
-4.68632
-3.02091
-3.75699
0.12462
6.92263
-2.72661
0.84906
2.82712
3.08196
1.25619
-1.10490
0.77497
2.82081
-5.17988
-3.40678
8.46813

Dalam hal ini akan dilihat apakah ei = 0 .

INTERPRETASI:

Berdasarkan hasil perhitungan diperoleh ei = -3E-05

Hal ini berarti asumsi E(i ) = 0 terpenuhi.

3) Kesamaan Variansi, yaitu var (i) = 2 = var (yi )


Perhatikan plot Residual Plots for y Versus Fits
INTERPRETASI:

Sisaan terlihat tersebar secara acak dan tidak memiliki pola khusus, maka
model dapat dikatakan linear.
Hal ini berarti asumsi kesamaan variansi terpenuhi.

4) Kenormalan Galat, yaitu i  N (0 , 2)


Adapun statistic ujinya adalah uji Anderson-Darling dengan rumus
dan H0 : Galat
berdistribusi normal

INTERPRETASI:
Dalam hal ini, ¿ 0,05

Hasil uji diperoleh: P=0,366

Karena P>0,05 , maka terima H0 .

Hal ini berarti, galat berdistribusi normal terpenuhi.

5) Sampel Acak
Menurut Sembiring (1995 : 46)
”Tidak ada cara memeriksa apakah terok yang diambil acak atau bukan, hanya
pelakunya (yang mengambil terok tersebut) yang tahu tentang hal itu. Kalau
terok tidak diambil secara acak maka nasi sudah menjadi bubur, tidak ada
usaha apapun yang dapat dilakukan untuk menjadikannya acak.”

6) Galat tidak Berkorelasi, yaitu cov (i , j) = 0


Rentangan nilai statistik-d Durbin – Watson,
menurut Sembiring (1995, 289), adalah 0 < d
< 4.

4. Jika nilai d dekat ke 0 , maka


diindikasikan ada autokorelasi positif
5. Jika nilai d statistik dekat ke 2 , maka
diindikasikan tidak ada autokorelasi.
6. Jika nilai d statistik dekat ke 4 , maka
diindikasikan ada autokorelasi negative

Hasil output Minitab:


Durbin-Watson Statistic
Durbin-Watson Statistic 1.86787
=
INTERPRETASI:

Karena “d statistik dekat ke 2”, hal ini berarti asumsi galat tidak berkorelasi
terpenuhi.

KESIMPULAN UJI ASUMSI KLASIK:

Asumsi Klasik untuk Analisis Regresi Linear adalah

a. Kelinearan terpenuhi

b. terpenuhi
c. Kesamaan Variansi terpenuhi

d. Kenormalan Galat terpenuhi

e. Sampel Acak terpenuhi

f. Galat tidak Berkorelasi terpenuhi

g. APAKAH TRANSFORMASI DIPERLUKAN?


Berdasarkan pada Uji Asumsi Klasik, Asumsi:

1) Kelinearan terpenuhi

2) terpenuhi

3) Kesamaan Variansi terpenuhi, tetapi diperkirakan adanya beberapa pencilan


yang mempengaruhi pola.

4) Kenormalan Galat terpenuhi

5) Galat tidak Berkorelasi terpenuhi

Transformasi diperlukan apabila asumsi dari regresi ada yang tidak terpenuhi. Hal
ini berarti, tidak diperlukan transformasi pada data.

KESIMPULAN: Tidak diperlukan transformasi pada data.

h. Membentuk Model Terbaik

Pada pembentukan suatu model kita menghadapi dua hal yang saling bertolak
belakang.

Tujuan prediksi : makin banyak peubah bebas yang berpengaruh terhadap respons
y masuk ke dalam model makin baik prediksi y.Tentunya ini tidak berarti bahwa
sebaiknya semua peubah bebas masuk ke dalam model

Tujuan pengendalian atau pun pemantauan suatu sistem : makin sedikit peubah
bebas dalam model makin baik model tersebut.

Untuk membentuk model terbaik, semua asumsi harus terpenuhi terlebih dahulu. ,

Masing-masing peubah sudah linear

Variansi dari galat sudah sama


Galat sudah normal

Pencilan sudah tidak lagi menjadi persoalan

FIT THE FULL


MODEL

PERFORM RESIDUAL
ANALYSIS

TRANSFORM
DATA

DO WE NEED A
TRANSFORMATION
YES

NO

PERFORM ALL POSSIBLE


REGRESSIONS

SELECT MODELS FOR


FURTHER ANALYSIS
MAKE
RECOMMENDATIONS

1) Metode Seleksi Maju (Forward Selestion)

peubah bebas : dimasukkan satu demi satu


menurut urutan besar pengaruhnya terhadap model.
Langkah berhenti : bila semua peubah bebas yang memenuhi syarat telah
masuk
Urutan besar pengaruh regressor terhadap model pada data yang dipakai
penulis dari yang terbesar ke yang terkecil adalah x 1, x 4, x 2, x 5, dan x 3.
Berikut langkah-langkah yang dilakukan pada metode seleksi maju:
Regression Analysis: y versus x1
Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Adj
Source DF Adj SS MS F-Value P-Value
Regression 1 821.1 821.10 14.53 0.001
  x1 1 821.1 821.10 14.53 0.001
Error 17 960.7 56.51    
  Lack-of- 5 105.9 21.17 0.30 0.905
Fit
  Pure Error 12 854.8 71.24    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
7.51738 46.08% 42.91% 34.46%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 12.1 14.7 0.82 0.423  
x1 0.80 0.212 3.81 0.001 1.00
6
Regression Equation
y = 12.1 + 0.806 x1
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
1 87.00 72.56 14.44 2.00 R  
15 57.00 52.41 4.59 0.75   X
R  Large residual
X  Unusual X
Durbin-Watson Statistic
Durbin-Watson Statistic 1.62204
=
Residual Plots for y
Regression Analysis: y versus x1, x4
Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Adj F-
Source DF SS Adj MS Value P-Value
Regression 2 1155.3 577.67 14.75 0.000
  x1 1 1155.3 1155.34 29.51 0.000
  x4 1 334.2 334.24 8.54 0.010
Error 16 626.4 39.15    
  Lack-of-Fit 12 439.3 36.61 0.78 0.668
  Pure Error 4 187.2 46.79    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
6.25725 64.84% 60.45% 51.53%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 25.0 13.0 1.92 0.073  
x1 1.133 0.209 5.43 0.000 1.40
x4 -0.481 0.165 -2.92 0.010 1.40
Regression Equation
y = 25.0 + 1.133 x1 - 0.481 x4
Durbin-Watson Statistic
Durbin-Watson Statistic 1.78214
=
Residual Plots for y

Regression Analysis: y versus x1, x4, x2


Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regression 3 1474.53 491.511 24.00 0.000
  x1 1 590.02 590.024 28.80 0.000
  x4 1 630.19 630.189 30.77 0.000
  x2 1 319.19 319.193 15.58 0.001
Error 15 307.26 20.484    
  Lack-of- 14 302.76 21.625 4.81 0.345
Fit
  Pure Error 1 4.50 4.500    
Total 18 1781.79      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Residual Plots for y

Regression Analysis: y versus x1, x4, x2, x5


Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Adj
Source DF Adj SS MS F-Value P-Value
Regressio 3 1474.5 491.51 24.00 0.000
n
  x1 1 590.0 590.02 28.80 0.000
  x4 1 630.2 630.19 30.77 0.000
  x2 1 319.2 319.19 15.58 0.001
Error 15 307.3 20.48    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Residual Plots for y

Di sini, koefisien x 5=0 , jadi model terbaiknya adalah

y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2

2) Metode Seleksi Mundur (Backward)


Langkah-langkah melakukan metode backward:
1. Masukkan semua peubah ke dalam model
2. Uji H0 : 1 = 2 = 3 = ... = k = 0
a. Jika H0 tidak ditolak : semua peubah bebas tidak berpengaruh
terhadap respons.
Pekerjaan selesai
b. Jika H0 ditolak : pandang tiap regressor seolah-olah sebagai
yang paling akhir masuk ke dalam model.
3. Ambil yang paling kecil pengaruhnya (palinghan R2)
4. Uji apakah pengaruh peubah tersebut berarti atau tidak.
a. Jika berarti : pekerjaan selesai.
semua peubah berada dalam model
b. Jika tidak berarti : keluarkan peubah tersebut.
Ulangi pekerjaan seperti langkah 3
5. Dan seterusnya, sampai diperoleh model yang terbaik.
Urutan besar pengaruh regressor terhadap model pada data yang dipakai
penulis dari yang terkecil ke yang terbesar adalah x 3, x 5, x 2, x 4 , dan x 1.
Berikut langkah-langkah yang dilakukan pada metode seleksi mundur:

Regression Analysis: y versus x1, x4, x2, x5, x3


Backward Elimination of Terms
α to remove = 0.05
Analysis of Variance
Source DF Adj SS Adj F-Value P-Value
MS
Regressio 3 1474.5 491.51 24.00 0.000
n
  x1 1 590.0 590.02 28.80 0.000
  x4 1 630.2 630.19 30.77 0.000
  x2 1 319.2 319.19 15.58 0.001
Error 15 307.3 20.48    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Residual Plots for y
Regression Analysis: y versus x1, x4, x2, x5
Backward Elimination of Terms
α to remove = 0.05
Analysis of Variance
Adj
Source DF Adj SS MS F-Value P-Value
Regressio 3 1474.5 491.51 24.00 0.000
n
  x1 1 590.0 590.02 28.80 0.000
  x4 1 630.2 630.19 30.77 0.000
  x2 1 319.2 319.19 15.58 0.001
Error 15 307.3 20.48    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Residual Plots for y

Regression Analysis: y versus x1, x4, x2


Backward Elimination of Terms
α to remove = 0.05
Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regression 3 1474.53 491.511 24.00 0.000
  x1 1 590.02 590.024 28.80 0.000
  x4 1 630.19 630.189 30.77 0.000
  x2 1 319.19 319.193 15.58 0.001
Error 15 307.26 20.484    
  Lack-of- 14 302.76 21.625 4.81 0.345
Fit
  Pure Error 1 4.50 4.500    
Total 18 1781.79      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Residual Plots for y

Regression Analysis: y versus x1, x4


Backward Elimination of Terms
α to remove = 0.05
Analysis of Variance
Adj F-
Source DF SS Adj MS Value P-Value
Regression 2 1155.3 577.67 14.75 0.000
  x1 1 1155.3 1155.34 29.51 0.000
  x4 1 334.2 334.24 8.54 0.010
Error 16 626.4 39.15    
  Lack-of-Fit 12 439.3 36.61 0.78 0.668
  Pure Error 4 187.2 46.79    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
6.25725 64.84% 60.45% 51.53%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 25.0 13.0 1.92 0.073  
x1 1.133 0.209 5.43 0.000 1.40
x4 -0.481 0.165 -2.92 0.010 1.40
Regression Equation
y = 25.0 + 1.133 x1 - 0.481 x4
Durbin-Watson Statistic
Durbin-Watson Statistic 1.78214
=
Residual Plots for y

Di sini, pengeluaran x 2 berarti terhadap model. Dengan demikian, model


terbaiknya adalah

y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2

3) Metode Bertahap (Stepwise)


Dengan menggunakan langkah yang sama pada metode forward dan
backward diperoleh

Regression Analysis: y versus x1


Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Adj
Source DF Adj SS MS F-Value P-Value
Regression 1 821.1 821.10 14.53 0.001
  x1 1 821.1 821.10 14.53 0.001
Error 17 960.7 56.51    
  Lack-of- 5 105.9 21.17 0.30 0.905
Fit
  Pure Error 12 854.8 71.24    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
7.51738 46.08% 42.91% 34.46%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 12.1 14.7 0.82 0.423  
x1 0.80 0.212 3.81 0.001 1.00
6
Regression Equation
y = 12.1 + 0.806 x1
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
1 87.00 72.56 14.44 2.00 R  
15 57.00 52.41 4.59 0.75   X
R  Large residual
X  Unusual X
Durbin-Watson Statistic
Durbin-Watson Statistic 1.62204
=
Regression Analysis: y versus x1, x4
Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Adj F-
Source DF SS Adj MS Value P-Value
Regression 2 1155.3 577.67 14.75 0.000
  x1 1 1155.3 1155.34 29.51 0.000
  x4 1 334.2 334.24 8.54 0.010
Error 16 626.4 39.15    
  Lack-of-Fit 12 439.3 36.61 0.78 0.668
  Pure Error 4 187.2 46.79    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
6.25725 64.84% 60.45% 51.53%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 25.0 13.0 1.92 0.073  
x1 1.133 0.209 5.43 0.000 1.40
x4 -0.481 0.165 -2.92 0.010 1.40
Regression Equation
y = 25.0 + 1.133 x1 - 0.481 x4
Durbin-Watson Statistic
Durbin-Watson Statistic 1.78214
=
Regression Analysis: y versus x1, x4
Backward Elimination of Terms
α to remove = 0.05
Analysis of Variance
Adj F-
Source DF SS Adj MS Value P-Value
Regression 2 1155.3 577.67 14.75 0.000
  x1 1 1155.3 1155.34 29.51 0.000
  x4 1 334.2 334.24 8.54 0.010
Error 16 626.4 39.15    
  Lack-of-Fit 12 439.3 36.61 0.78 0.668
  Pure Error 4 187.2 46.79    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
6.25725 64.84% 60.45% 51.53%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 25.0 13.0 1.92 0.073  
x1 1.133 0.209 5.43 0.000 1.40
x4 -0.481 0.165 -2.92 0.010 1.40
Regression Equation
y = 25.0 + 1.133 x1 - 0.481 x4
Durbin-Watson Statistic
Durbin-Watson Statistic 1.78214
=
Regression Analysis: y versus x1, x4, x2
Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regression 3 1474.53 491.511 24.00 0.000
  x1 1 590.02 590.024 28.80 0.000
  x4 1 630.19 630.189 30.77 0.000
  x2 1 319.19 319.193 15.58 0.001
Error 15 307.26 20.484    
  Lack-of- 14 302.76 21.625 4.81 0.345
Fit
  Pure Error 1 4.50 4.500    
Total 18 1781.79      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Regression Analysis: y versus x1, x4, x2
Backward Elimination of Terms
α to remove = 0.05
Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regression 3 1474.53 491.511 24.00 0.000
  x1 1 590.02 590.024 28.80 0.000
  x4 1 630.19 630.189 30.77 0.000
  x2 1 319.19 319.193 15.58 0.001
Error 15 307.26 20.484    
  Lack-of- 14 302.76 21.625 4.81 0.345
Fit
  Pure Error 1 4.50 4.500    
Total 18 1781.79      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Regression Analysis: y versus x1, x4, x2, x5
Forward Selection of Terms
α to enter = 0.05
Analysis of Variance
Adj
Source DF Adj SS MS F-Value P-Value
Regressio 3 1474.5 491.51 24.00 0.000
n
  x1 1 590.0 590.02 28.80 0.000
  x4 1 630.2 630.19 30.77 0.000
  x2 1 319.2 319.19 15.58 0.001
Error 15 307.3 20.48    
Total 18 1781.8      
Model Summary
S R-sq R-sq(adj) R-sq(pred)
4.52590 82.76% 79.31% 71.29%
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29
Regression Equation
y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2
Fits and Diagnostics for Unusual Observations
Ob Std
s y Fit Resid Resid
8 83.00 74.2 8.76 2.11 R
4
R  Large residual
Durbin-Watson Statistic
Durbin-Watson Statistic 2.34899
=
Karena pemasukan x 5 tidak mempengaruhi model pada metode stepwise,
sehingga model terbaiknya adalah

y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2

4) Metode Semua Kombinasi yang Mungkin

Keunggulan : memungkinkan melihat seluruh kombinasi


Kelemahan : banyak pekerjaan yang harus dihadapi

Acuan

1. R2adj : Pilih model dengan R2 adj yang terbesar.


2. S2 : Makin kecil S2 makin baik.
3. Cp dari Mallows : Cp = p .

Tersedia k regressor : berarti harus diperiksa sejumlah 2 k – 1


persamaan
Karena pada model regresi yang diperoleh sebelumnya pada
praktikum ini terdapat 5 regressor maka harus diperiksa sejumlah 2 5-
1=31 persamaan

Kelompok No Kombinasi Radj2 S2 Persamaan Regresi

Peubah

A 1 x1 42.91% 56,51 y = 12.1 + 0.806 x1

2 x2 21.12% 78,08 y = 41.3 + 0.365 x2

3 x3 2.47% 96,54 y = 46.3 + 0.300 x3


4 x4 0,00% 104,811 y = 68.0 - 0.001 x4

5 x5 0,00% 103,59 y = 60.4 + 0.094 x5

B 1 x 1, x 2 40,81% 58,59 y = 11.7 + 0.702 x1 + 0.104 x2

2 x 1, x 3 41,31% 58,09 y = 16.9 + 0.916 x1 - 0.172 x3

3 x 1, x 4 60.45% 39,15 y = 25.0 + 1.133 x1 - 0.481 x4

4 x 1, x 5 39.52% 59,864 y = 14.2 + 0.817 x1 - 0.036 x5

5 x 2, x 3 19.03% 80,15 y = 50.3 + 0.499 x2 - 0.261 x3

6 x 2, x 4 43.35% 56,08 y= 63.7 + 0.709 x2 - 0.641 x4

7 x 2, x 5 21.71% 77,50 y= 52.0 + 0.477 x2 - 0.237 x5

8 x 3, x 4 4.85% 94,18 y = 52.3 + 0.584 x3 - 0.359 x4

9 x 3, x 5 0,00% 101,87 y= 48.6 + 0.365 x3 - 0.088 x5

10 x 4, x 5 0,00% 109,37 y= 63.1 - 0.091 x4 + 0.144 x5

C 1 x 1, x 2, x 3 45.24% 54,20 y= 23.5 + 0.788 x1 + 0.301 x2


- 0.444 x3

2 x 1, x 2, x 4 79.31% 20,484 y = 31.80 + 0.880 x1 + 0.463 x2


- 0.792 x4

3 x 1, x 2, x 5 38.83% 60,55 y = 19.8 + 0.661 x1 + 0.185 x2


- 0.140 x5

4 x 1, x 3, x 4 59.99% 39,60 y= 21.8 + 1.067 x1 + 0.212 x3


- 0.583 x4

5 x 1, x 3, x 5 37.70% 61,665 y= 14.9 + 0.931 x1 - 0.222 x3


+ 0.057 x5

6 x 1, x 4, x 5 65.35% 34,29 y = 13.9 + 1.184 x1


- 0.674 x4 + 0.273 x5

7 x 2, x 3, x 4 39.61% 59,778 y= 62.8 + 0.697 x2 + 0.033 x3


- 0.651 x4

8 x 2, x 3, x 5 17.51% 81,66 y= 56.0 + 0.543 x2 - 0.160 x3


- 0.203 x5

9 x 2, x 4, x 5 40.16% 59,239 y= 66.2 + 0.730 x2 - 0.611 x4


- 0.079 x5

10 x 3, x 4 , x 5 0,00% 100,46 y= 52.3 + 0.585 x3 - 0.358 x4


1 - 0.002 x5

D 1 x 1, x 2, x 3, 78.48% 21,300 y= 34.3 + 0.897 x1 + 0.504 x2

x4 - 0.127 x3 - 0.758 x4

2 x 1, x 2, x 3, 41.44% 57,970 y= 24.9 + 0.774 x1 + 0.312 x2

x5 - 0.424 x3 - 0.034 x5

3 x 1, x 2, x 4, 79.11% 20,68 y= 26.4 + 0.926 x1 + 0.419 x2

x5 - 0.845 x4 + 0.117 x5

4 x 1, x 3, x 4 , 63.02% 36,608 y= 13.8 + 1.163 x1 + 0.057 x3

x5 - 0.689 x4 + 0.257 x5

5 x 2, x 3, x 4 , 36.05% 63,302 y= 64.9 + 0.709 x2 + 0.066 x3

x5 - 0.626 x4 - 0.089 x5

E 1 x 1 , x 2, x 3 , 79.05% 20,73 y= 28.5 + 0.968 x1 + 0.468 x2


x 4, x 5 - 0.198 x3 - 0.811 x4 + 0.156 x5

Model terpilih berdasarkan nilai Radj2 pada setiap kelompok dapat dilihat pada
table model terbaik sebagai berikut.

No Kombinasi Radj2 S2 Persamaan Regresi

Peubah

a) x1 42.91% 56,51 y = 12.1 + 0.806 x1

b) x 1, x 4 60.45% 39,15 y = 25.0 + 1.133 x1


- 0.481 x4

c) x 1, x 2, x 4 79.31% 20,484 y = 31.80 + 0.880 x1


+ 0.463 x2 - 0.792 x4

d) x 1, x 2, x 4 , x 5 79.11% 20,68 y= 26.4 + 0.926 x1


+ 0.419 x2 - 0.845 x4
+ 0.117 x5

e) x 1 , x 2 , x 3, x 4 , 79.05% 20,73 y= 28.5 + 0.968 x1


x5 + 0.468 x2 - 0.198 x3
- 0.811 x4 + 0.156 x5

Penjabaran model pada tabel di atas adalah sebagai berikut.


a) Regresor x 1
y = 12.1 + 0.806 x1
Coefficients

Term Coef SE Coef T-Value P-Value VIF


Constant 12.1 14.7 0.82 0.423  
x1 0.80 0.212 3.81 0.001 1.00
6

b) Regresor x 1, x 4
y = 25.0 + 1.133 x1 - 0.481 x4

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 25.0 13.0 1.92 0.073  
x1 1.133 0.209 5.43 0.000 1.40
x4 -0.481 0.165 -2.92 0.010 1.40

c) Regresor x 1, x 2, x 4
y = 31.80 + 0.880 x1 + 0.463 x2 - 0.792 x4

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x2 0.463 0.117 3.95 0.001 2.29
x4 -0.792 0.143 -5.55 0.000 2.02

d) Regresor x 1, x 2, x 4, x 5
y = 26.4 + 0.926 x1 + 0.419 x2 - 0.845 x4 + 0.117 x5

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 26.4 11.3 2.35 0.034  
x1 0.926 0.172 5.38 0.000 1.81
x2 0.419 0.127 3.30 0.005 2.66
x4 -0.845 0.154 -5.47 0.000 2.34
x5 0.117 0.127 0.93 0.370 1.80

e) Regresor x 1 , x 2, x 3, x 4 , x 5
y = 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3 - 0.811 x4 + 0.156 x5

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 28.5 11.5 2.49 0.027  
x1 0.968 0.177 5.45 0.000 1.92
x2 0.468 0.137 3.42 0.005 3.08
x3 -0.198 0.201 -0.98 0.344 3.06
x4 -0.811 0.159 -5.11 0.000 2.46
x5 0.156 0.133 1.18 0.261 1.98

1
1−R
VIFj = Cjj = j2

Jika Rj2 sangat besar, yaitu mendekati 1 maka VIFj  


Jika Rj2 = 0 , yaitu tidak ada korelasi maka VIFj = 1
Jadi, makin dekat VIFj ke 1 , makin dekat kepada kesimpulan
bahwa tidak ada multikolinearitas.
Berdasarkan pertimbangan tersebut, model yang dipilih adalah model
yang memiliki FIV sama dengan 1 atau paling dekat ke-1 yang menandakan
bahwa model tersebut tidak ada multikolinearitas. Selain itu, juga
dipertimbangkan alpha dari tiap regressor apakah lebih kecil dari alpha awal (
0,05 ¿. Dari data hasil metode kombinasi, diperoleh bahwa model a) memiliki
FIV sama dengan 1 dan P value nya kecil dari alpha, model tersebut sangat
bagus. Model b) memiliki FIV dekat dengan 1 dan P value regressor-
regresornya masih kecil dari alpha, sehingga model tersebut juga bagus.
Model c) memiliki FIV ada yang dekat dengan 1, namun ada juga yang
memiliki nilai FIV dekat dengan 2. Di sisi lain, P value dari regresornya
masih kecil dari alpha. Model tersebut masil dipertimbangkan. Model d), nilai
FIV nya ada yang bernilai 2,6 (tidak dekat ke 1) dan regressor x 5nya lebih
besar dari alpha sehingga kurang baik untuk dipilih. Model e), nilai FIV nya
ada yang bernilai 3,08 (tidak dekat ke 1) dan regressor x 3 dan x 5 juga lebih
besar dari alpha, sehingga juga kurang baik untuk dipilih.
Di antara model a) dan model b), lebih baik model b) karena
menjelaskan bahwa ada 2 variabel ( x 1dan x 4) yang mempengaruhi y ,
sehingga lebih baik dalam memprediksi nilai y . Di antara model b) dan model
c) masih dipertimbangkan mana model yang lebih baik karena pada model c)
ada regressor yang memiliki FIV dekat ke 2, namun model c) memiliki
regressor yang P-valuenya memenuhi alpha awal yaitu 0,05 dan menjelaskan
bahwa x 2 juga berpengaruh terhadap nilai y serta berdasarkan tabel model
terbaik, model c) memiliki Radj2 tertinggi. Oleh karena itu, model b) dan
model c) dipilih untuk metode ini.
5) Memilih model terbaik
Rekomendasi model terbaik dari metode forward = metode backward =
metode stepwise yaitu

y = 31.80 + 0.880 x1 - 0.792 x4 + 0.463 x2


Term Coef SE Coef T-Value P-Value VIF
Constant 31.80 9.59 3.32 0.005  
x1 0.880 0.164 5.37 0.000 1.66
x4 -0.792 0.143 -5.55 0.000 2.02
x2 0.463 0.117 3.95 0.001 2.29

Rekomendasi model terbaik dari metode semua kombinasi yang mungkin


yaitu
y = 25.0 + 1.133 x1 - 0.481 x4
dan
y = 31.80 + 0.880 x1 + 0.463 x2 - 0.792 x4

Karena ada model yang merupakan rekomendasi dari keempat metode yang
dilakukan sebelumnya, sehingga model tersebut dipilih menjadi model
terbaik.
DENGAN DEMIKIAN:
Berdasarkan tujuan prediksi, model yang direkomendasikan adalah
y= 28.5 + 0.968 x1 + 0.468 x2 - 0.198 x3 - 0.811 x4 + 0.156 x5
Karena pada model ini, semua peubah bebas x mempengaruhi respon y
sehingga semakin baik dalam memprediksi y .
Berdasarkan tujuan pengendalian, model yang direkomendasikan adalah
y = 31.80 + 0.880 x1 + 0.463 x2 - 0.792 x4
Karena memiliki Radj2 tinggi yaitu 82,76%, nilai FIV mendekati 1, serta P
value regresornya kecil dari alpha awal yaitu 0,05.
KESIMPULAN:

Model yang direkomendasikan adalah

y = 31.80 + 0.880 x1 + 0.463 x2 - 0.792 x4

Sebesar 82.76 % dari seluruh variasi total y dipengaruhi oleh x 1 x 2 , dan x 4 ,


masih ada sebesar 17.24 % variasi y yang tidak dapat diterangkan oleh model
yang digunakan. Bagian sisanya yang 17.24 % ini mungkin disebabkan oleh
faktor lain yang gagal diperhitungkan dalam model.

INTERPRETASI:
Karena terdapat 6 pencilan yang mempengaruhi kebaikan model, maka
setelah disisihkan data tersebut yaitu data nomor 11, 12, 13, 20, 28, dan 30
diperoleh kesimpulan yaitu faktor yang mempengaruhi hasil belajar adalah
latar belakang, motivasi, dan minat dengan taraf kesalahan 5%. Ada pun
faktor lain berupa sikap dan gaya belajar tidak berpengaruh langsung terhadap
hasil belajar berdasarkan model.

Anda mungkin juga menyukai